AI资讯新闻榜单内容搜索-MoR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MoR
超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

一个小解码器让所有模型当上领域专家!华人团队新研究正在引起热议。 他们提出了一种比目前业界主流采用的DAPT(领域自适应预训练)和RAG(检索增强生成)更方便、且成本更低的方法。

来自主题: AI资讯
8134 点击    2025-08-19 11:01
对谈 Memories.ai 创始人 Shawn: 给 AI 做一套“视觉海马体”|Best Minds

对谈 Memories.ai 创始人 Shawn: 给 AI 做一套“视觉海马体”|Best Minds

对谈 Memories.ai 创始人 Shawn: 给 AI 做一套“视觉海马体”|Best Minds

过去几年,AI 的巨大突破赋予了机器语言的力量。而下一个前沿,是给予它们关于世界的记忆。当大模型只能分析短暂的视频内容时,一个根本性的鸿沟依然存在:AI 能够处理信息,却无法真正地“记住” 信息。如今的瓶颈已不再是“看见”,而是如何保留、索引并回忆构成我们现实世界的视觉数据流。

来自主题: AI资讯
7059 点击    2025-08-14 12:00
人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究

人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究

人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究

近期,基于大语言模型的智能体(LLM-based agent)在学术界和工业界中引起了广泛关注。对于智能体而言,记忆(Memory)是其中的重要能力,承担了记录过往信息和外部知识的功能,对于提高智能体的个性化等能力至关重要。

来自主题: AI技术研报
6517 点击    2025-08-07 17:03
「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

「有望成为Transformer杀手」,谷歌DeepMind新架构MoR实现两倍推理速度

大型语言模型已展现出卓越的能力,但其部署仍面临巨大的计算与内存开销所带来的挑战。随着模型参数规模扩大至数千亿级别,训练和推理的成本变得高昂,阻碍了其在许多实际应用中的推广与落地。

来自主题: AI技术研报
6774 点击    2025-07-18 11:58
Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer终结者!谷歌DeepMind全新MoR架构问世,新一代魔王来了

Transformer杀手来了?KAIST、谷歌DeepMind等机构刚刚发布的MoR架构,推理速度翻倍、内存减半,直接重塑了LLM的性能边界,全面碾压了传统的Transformer。网友们直呼炸裂:又一个改变游戏规则的炸弹来了。

来自主题: AI技术研报
8716 点击    2025-07-17 17:00
大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

大模型「越用越快」!SpeedupLLM首次验证,大降56%推理预算

LLM用得越久,速度越快!Emory大学提出SpeedupLLM框架,利用动态计算资源分配和记忆机制,使LLM在处理相似任务时推理成本降低56%,准确率提升,为AI模型发展提供新思路。

来自主题: AI技术研报
5591 点击    2025-07-10 12:30
不再担心AI“健忘”,北邮团队开源大模型记忆操作系统

不再担心AI“健忘”,北邮团队开源大模型记忆操作系统

不再担心AI“健忘”,北邮团队开源大模型记忆操作系统

随着大模型应用场景的不断拓展,其在处理长期对话时逐渐暴露出的记忆局限性日益凸显,主要表现为固定长度上下文窗口导致的“健忘”问题。

来自主题: AI资讯
8966 点击    2025-06-18 16:32