AI资讯新闻榜单内容搜索-AI记忆

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AI记忆
「生化危机」女主用Claude手搓满分AI,一年0.7美元反杀大厂!

「生化危机」女主用Claude手搓满分AI,一年0.7美元反杀大厂!

「生化危机」女主用Claude手搓满分AI,一年0.7美元反杀大厂!

全网震撼!《生化危机》女主跨界撸码,用Claude造出地表最强AI记忆系统,斩获全球首个满分。一年仅0.7美元,就能让大模型拥有永久记忆。

来自主题: AI技术研报
10201 点击    2026-04-08 17:31
独家|华为诺亚方舟郝建业创立「忆纪元科技」,聚焦AI 记忆基础设施

独家|华为诺亚方舟郝建业创立「忆纪元科技」,聚焦AI 记忆基础设施

独家|华为诺亚方舟郝建业创立「忆纪元科技」,聚焦AI 记忆基础设施

AI 科技评论独家获悉,华为诺亚方舟决策与推理实验室主任郝建业创立“深圳忆纪元科技有限公司”(Memorax ai),创业方向聚焦AI 记忆相关的基础设施。企查查信息显示,“忆纪元科技”成立于2026年3月,法人正是郝建业本人,公司业务类型为人工智能软件。

来自主题: AI资讯
7929 点击    2026-04-04 16:21
搞懂“记忆”必看|吃透Engram,坐等Deepseek新模型

搞懂“记忆”必看|吃透Engram,坐等Deepseek新模型

搞懂“记忆”必看|吃透Engram,坐等Deepseek新模型

第一篇论文来自字节SEED团队, 打了一些基础; 《Over-Tokenized Transformer》。 论文标题看上去在讨论“过度分词”。 而重点必然是在第二篇上—— DeepSeek公司的学术成果Engram。 《Conditional Memory via Scalable Lookup》 也就是Engram模块所出处的论文。

来自主题: AI技术研报
9767 点击    2026-03-31 10:30
早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR

早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR

早于DeepSeek Engram!用「查表」重置Transformer记忆 | ICLR

ICLR论文STEM架构率先提出「查表式记忆」架构,早于DeepSeek Engram三个月。它将Transformer的FFN从动态计算改为静态查表,用token索引的embedding表直接读取记忆,彻底解耦记忆容量与计算开销。

来自主题: AI技术研报
8117 点击    2026-03-31 10:04
MemoryLake让你养虾省91%词元!AI记忆公司质变科技用1亿个多模态文件验证了!

MemoryLake让你养虾省91%词元!AI记忆公司质变科技用1亿个多模态文件验证了!

MemoryLake让你养虾省91%词元!AI记忆公司质变科技用1亿个多模态文件验证了!

一家企业花了七周时间部署 AI:第 1 周精准回答行业分析问题,团队欢呼;第 3 周反复回答相同的错误结论,因为它“忘了”上周的修正;第 5 周在董事会汇报中引用了已被否定的数据,造成决策偏差;第 7 周项目暂停,“AI 不可信”成为共识。问题不在于 AI 不够聪明,而在于它每次醒来都是一张白纸。

来自主题: AI资讯
8060 点击    2026-03-25 14:18
一夜之间,AI终获「永久记忆」!最难考试99%刷爆SOTA,全网直呼疯狂

一夜之间,AI终获「永久记忆」!最难考试99%刷爆SOTA,全网直呼疯狂

一夜之间,AI终获「永久记忆」!最难考试99%刷爆SOTA,全网直呼疯狂

AI终于有了「永久记忆」!今天,超级记忆系统ASMR重磅登场,在业界公认最难AI记忆考试中,刷爆SOTA拿下99%成绩。全网直呼太疯狂。

来自主题: AI技术研报
7508 点击    2026-03-24 10:46
从经历到知识:UIUC、清华PlugMem如何重构Agent记忆

从经历到知识:UIUC、清华PlugMem如何重构Agent记忆

从经历到知识:UIUC、清华PlugMem如何重构Agent记忆

现在的AI agent往往把长交互历史直接存起来,但很难高效复用。最朴素的方法直接从「原始记忆」里检索,但常常把模型淹没在冗长、低价值的上下文里。PlugMem把经验转化为结构化、可复用的知识,并提出一个任务无关(task-agnostic)的统一记忆模块,在多种Agent基准上提升性能,同时消耗更少。

来自主题: AI技术研报
7719 点击    2026-03-22 09:37
突破一亿Token极限:EverMind提出MSA架构,实现大模型高效端到端长时记忆

突破一亿Token极限:EverMind提出MSA架构,实现大模型高效端到端长时记忆

突破一亿Token极限:EverMind提出MSA架构,实现大模型高效端到端长时记忆

人的智能能力主要由推理能力和长期记忆能力构成。近年来,大模型的推理能力一直处于快速发展过程,但大模型的长期记忆能力一直受限于上下文长度,无法取得突破。在历史上,曾经有多种路线进行尝试,但都无法突破扩展性(Scalability)、精度(Precision)和效率(Efficiency)的不可能三角。

来自主题: AI技术研报
9501 点击    2026-03-19 17:02