AI资讯新闻榜单内容搜索-EMO

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: EMO
Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

英伟达发布全新架构9B模型,以Mamba-Transformer混合架构实现推理吞吐量最高提升6倍,对标Qwen3-8B并在数学、代码、推理与长上下文任务中表现持平或更优。

来自主题: AI资讯
6167 点击    2025-08-19 11:35
超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

超越RAG和DAPT!华人团队新研究引热议:即插即用、无需改变原参即可让模型化身领域专家

一个小解码器让所有模型当上领域专家!华人团队新研究正在引起热议。 他们提出了一种比目前业界主流采用的DAPT(领域自适应预训练)和RAG(检索增强生成)更方便、且成本更低的方法。

来自主题: AI资讯
6659 点击    2025-08-19 11:01
对谈 Memories.ai 创始人 Shawn: 给 AI 做一套“视觉海马体”|Best Minds

对谈 Memories.ai 创始人 Shawn: 给 AI 做一套“视觉海马体”|Best Minds

对谈 Memories.ai 创始人 Shawn: 给 AI 做一套“视觉海马体”|Best Minds

过去几年,AI 的巨大突破赋予了机器语言的力量。而下一个前沿,是给予它们关于世界的记忆。当大模型只能分析短暂的视频内容时,一个根本性的鸿沟依然存在:AI 能够处理信息,却无法真正地“记住” 信息。如今的瓶颈已不再是“看见”,而是如何保留、索引并回忆构成我们现实世界的视觉数据流。

来自主题: AI资讯
5618 点击    2025-08-14 12:00
专访星海图赵行:热闹的Demo不等于泛化能力,具身智能胜负仍在数据量

专访星海图赵行:热闹的Demo不等于泛化能力,具身智能胜负仍在数据量

专访星海图赵行:热闹的Demo不等于泛化能力,具身智能胜负仍在数据量

人头攒动的2025WRC(世界机器人大会)上,不乏各种酷炫的Demo展示,可在一众敲锣打鼓的机器人表演中,具身智能公司星海图展位上,机器人却在安静地执行铺床任务。

来自主题: AI资讯
5544 点击    2025-08-13 12:43
1句话高质量生成游戏3D动作,北大新方法刷新动画制作SOTA

1句话高质量生成游戏3D动作,北大新方法刷新动画制作SOTA

1句话高质量生成游戏3D动作,北大新方法刷新动画制作SOTA

北京大学提出了ReMoMask:一种全新的基于检索增强生成的Text-to-Motion框架。它是一个集成三项关键创新的统一框架:(1)基于动量的双向文本-动作模型,通过动量队列将负样本的尺度与批次大小解耦,显著提高了跨模态检索精度;(2)语义时空注意力机制,在部件级融合过程中强制执行生物力学约束,消除异步伪影;(3)RAG-无分类器引导结合轻微的无条件生成以增强泛化能力。

来自主题: AI技术研报
7066 点击    2025-08-09 11:32
人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究

人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究

人大高瓴-华为诺亚:大语言模型智能体记忆机制的系列研究

近期,基于大语言模型的智能体(LLM-based agent)在学术界和工业界中引起了广泛关注。对于智能体而言,记忆(Memory)是其中的重要能力,承担了记录过往信息和外部知识的功能,对于提高智能体的个性化等能力至关重要。

来自主题: AI技术研报
5573 点击    2025-08-07 17:03
首发三个月入驻近百所校园,搭载AI智能体的“神秘小屋”正在打破青少年心理困境

首发三个月入驻近百所校园,搭载AI智能体的“神秘小屋”正在打破青少年心理困境

首发三个月入驻近百所校园,搭载AI智能体的“神秘小屋”正在打破青少年心理困境

当下,青少年心理健康问题日益严峻。中国科学院心理研究所基于对全国超过3万名青少年调查发布的《2022年青少年心理健康状况调查报告》显示:有14.8%的人存在不同程度抑郁风险。

来自主题: AI资讯
5597 点击    2025-08-05 12:40
你的Prompt已达性能极限?试试这个0成本的优化 | 马里兰大学最新

你的Prompt已达性能极限?试试这个0成本的优化 | 马里兰大学最新

你的Prompt已达性能极限?试试这个0成本的优化 | 马里兰大学最新

上下文学习(In-Context Learning, ICL)、few-shot,经常看我文章的朋友几乎没有人不知道这些概念,给模型几个例子(Demos),它就能更好地理解我们的意图。但问题来了,当您精心挑选了例子、优化了顺序,结果模型的表现还是像开“盲盒”一样时……有没有可能,问题出在一个我们谁都没太在意的地方,这些例子,到底应该放在Prompt的哪个位置?

来自主题: AI资讯
5503 点击    2025-08-02 12:37