AI资讯新闻榜单内容搜索-MoR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MoR
独家|闪极科技完成近亿元A+轮融资,新款AI眼镜计划一年内出货超十万台

独家|闪极科技完成近亿元A+轮融资,新款AI眼镜计划一年内出货超十万台

独家|闪极科技完成近亿元A+轮融资,新款AI眼镜计划一年内出货超十万台

硬氪独家获悉,在首款AI眼镜发布一年后,闪极科技(深圳)有限公司(以下简称“闪极”)于近日完成近亿元A+轮融资。我们总结了本轮融资信息和该公司几大亮点:融资规模:近亿元

来自主题: AI资讯
7534 点击    2025-12-28 12:48
最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品

最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品

最火、最全的Agent记忆综述,NUS、人大、复旦、北大等联合出品

在过去两年里,记忆(Memory)几乎从 “可选模块” 迅速变成了 Agent 系统的 “基础设施”:对话型助手需要记住用户习惯与历史偏好;代码 / 软件工程 Agent 需要记住仓库结构、约束与修复策略;

来自主题: AI技术研报
8269 点击    2025-12-23 09:28
最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

最近很火的Hindsight,基于图谱的「Agent记忆栈」解耦事实与信念

在上一篇文章中,我们系统梳理了AI Agent 记忆机制的全景综述AI Agent最新「Memory」综述 |多所顶尖机构联合发布。今天我将带您了解一项最近很火的Agent记忆项目「HINDSIGHT」

来自主题: AI技术研报
7579 点击    2025-12-19 10:28
AI Agent最新「Memory」综述 |多所顶尖机构联合发布

AI Agent最新「Memory」综述 |多所顶尖机构联合发布

AI Agent最新「Memory」综述 |多所顶尖机构联合发布

就在昨天,新加坡国立大学、中国人民大学、复旦大学等多所顶尖机构联合发布了一篇AI Agent 记忆(Memory)综述。

来自主题: AI技术研报
7525 点击    2025-12-17 09:21
亚马逊Agent克服遗忘的“秘诀”,被中国团队掌握,让大模型遗忘率趋近于0

亚马逊Agent克服遗忘的“秘诀”,被中国团队掌握,让大模型遗忘率趋近于0

亚马逊Agent克服遗忘的“秘诀”,被中国团队掌握,让大模型遗忘率趋近于0

国内记忆框架首开源,企业实战已上线运行。在海外巨头已经将“记忆系统”提升到基础设施层的同时,红熊AI便是其中之一。公司成立于2024年,围绕多模态大模型与记忆科学开展研发,并将这些能力用于为企业提供智能客服、营销自动化与AI智能体服务。

来自主题: AI资讯
6976 点击    2025-12-08 09:49
首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」

首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」

首帧的真正秘密被揭开了:视频生成模型竟然把它当成「记忆体」

在 Text-to-Video / Image-to-Video 技术突飞猛进的今天,我们已经习惯了这样一个常识: 视频生成的第一帧(First Frame)只是时间轴的起点,是后续动画的起始画面。

来自主题: AI技术研报
8004 点击    2025-12-06 11:03
突破AI记忆瓶颈,耶鲁博士新成果破解阅读失忆难题

突破AI记忆瓶颈,耶鲁博士新成果破解阅读失忆难题

突破AI记忆瓶颈,耶鲁博士新成果破解阅读失忆难题

当你阅读《红楼梦》《哈利·波特》《百年孤独》等长篇小说时,读着读着可能就忘记前面讲了什么,有时还会搞混人物关系。AI 在阅读长文章的时候也存在类似问题,当文章太长时它也会卡主,要么读得特别慢,要么记不住前面的内容。

来自主题: AI技术研报
7954 点击    2025-12-04 10:23
AI Agent 工程化,本质是数据库系统设计

AI Agent 工程化,本质是数据库系统设计

AI Agent 工程化,本质是数据库系统设计

最近半年,我阅读了业界关于 AI Agent 的工程实践:Anthropic 的 Context Engineering 论文、Manus 的工程分享、Cline 的 Memory Bank 设计等。同时自己也一直在做跟 AI Agent 相关的项目,如:Jta[1](开源的翻译 Agent,基于 Agentic Workflow)。

来自主题: AI技术研报
8201 点击    2025-11-20 15:03
Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

谷歌在第三天发布了《上下文工程:会话与记忆》(Context Engineering: Sessions & Memory) 白皮书。文中开篇指出,LLM模型本身是无状态的 (stateless)。如果要构建有状态的(stateful)和个性化的 AI,关键在于上下文工程。

来自主题: AI技术研报
6403 点击    2025-11-14 10:22