
微软警告:大模型ICL并非真正意义上的学习,你的AI Agent随时可能“失忆”
微软警告:大模型ICL并非真正意义上的学习,你的AI Agent随时可能“失忆”上下文学习”(In-Context Learning,ICL),是大模型不需要微调(fine-tuning),仅通过分析在提示词中给出的几个范例,就能解决当前任务的能力。您可能已经对这个场景再熟悉不过了:您在提示词里扔进去几个例子,然后,哇!大模型似乎瞬间就学会了一项新技能,表现得像个天才。
上下文学习”(In-Context Learning,ICL),是大模型不需要微调(fine-tuning),仅通过分析在提示词中给出的几个范例,就能解决当前任务的能力。您可能已经对这个场景再熟悉不过了:您在提示词里扔进去几个例子,然后,哇!大模型似乎瞬间就学会了一项新技能,表现得像个天才。
这篇题为《Nav-R1: Reasoning and Navigation in Embodied Scenes》的新论文,提出了一个新的「身体体现式(embodied)基础模型」(foundation model),旨在让机器人或智能体在 3D 环境中能够更好地结合「感知 + 推理 + 行动」。简单说,它不仅「看到 + 听到+开动马达」,还加入清晰的中间「思考」环节。
以腾讯元器平台上的「公众号智能体」为例,它提供了一种可能的解决方案。它最大的特点,是经过公众号创作者授权后,可自动读取该公众号发布的文章,并实时更新为知识库。对于我们前面提到的困惑,这个功能简直是打瞌睡送来了枕头。
昨天OpenAI正式发布了GPT-5-Codex,一个专门为Codex编码智能体研发的GPT-5版本。在看了全球网友实测效果后,基本结论就是可以告别Claude Code,放下Cursor,直接来拥抱Codex了!为了验证网友们的说法和GPT-5-Codex的真实能力,我们全面的测评了一下。
近年来,以人形机器人、自动驾驶为代表的具身人工智能(Embodied Artificial Intelligence, EAI)正以前所未有的速度发展,从数字世界大步迈向物理现实。然而,当一次错误的风险不再是屏幕上的一行乱码,而是可能导致真实世界中的物理伤害时,一个紧迫的问题摆在了我们面前: 如何确保这些日益强大的具身智能体是安全且值得信赖的?
本周,我们关注 Agent 与工业结合正在发生的变化,我们邀请研发时序大模型 Geegobyte-g1 以及工业智能体平台「河谷」的初创企业极峰科技的创始人王筱圃,和我们聊一聊什么是时序大模型,和大语言模型的区别和具体的案例,他们如何训练一个 Agent 并把它卖给企业投入到生产流程中。希望能对大家了解 AI Agent 如何应用于工业生产有所帮助。
人类的大脑,会在梦里筛选记忆。如今,AI也开始学会在「睡眠」中整理、保存,甚至遗忘。Bilt部署数百万智能体,让科幻小说里的设问——「仿生人会梦见电子羊吗?」——逐步成真。那么,当AI也能选择忘记时,它会变得更像人,还是更陌生?
AI Agent是否正在催生一个全新的经济层?谷歌DeepMind和多伦多大学联合表示:是的。在这里,智能体能够以超出人类直接监管的规模和速度进行交易与协作。
日前,在 2025 Inclusion・外滩大会上,蚂蚁集团发布了全球首个智能眼镜可信连接技术框架 ——gPass。该技术具备「安全、交互、连接」三大核心能力,致力于实现 AI 眼镜与智能体之间安全、可信、即时信息交互,为用户打造自然无感的服务体验,同时构建起面向眼镜厂商和开发者的安全 AI 数字服务生态。
OpenAI Codex编程智能体大升级: 推出GPT-5-Codex特化版模型,支持独立连续编程7个小时。还有IDE插件版,在VS Code、Cursor中都可以使用Codex了。新模型最牛的地方在于“真·动态思考”能力。