
ICML 2025 | 注意力机制中的极大值:破解大语言模型上下文理解的关键
ICML 2025 | 注意力机制中的极大值:破解大语言模型上下文理解的关键大型语言模型(LLMs)在上下文知识理解方面取得了令人瞩目的成功。
大型语言模型(LLMs)在上下文知识理解方面取得了令人瞩目的成功。
你以为大模型已经能轻松“上网冲浪”了?
科幻中AI自我复制失控场景,正成为现实世界严肃的研究课题。英国AISI推出RepliBench基准,分解并评估AI自主复制所需的四大核心能力。测试显示,当前AI尚不具备完全自主复制能力,但在获取资源等子任务上已展现显著进展。
该研究对 LLM 常见的失败模式贪婪性、频率偏差和知 - 行差距,进行了深入研究。
今天凌晨,OpenAI 董事会以及创始人 Sam Altman 用一封公开信给出了一个制度层面的回答:将旗下营利业务转为「公共利益公司」(PBC),使命不变,由非营利组织继续掌控,但治理框架更为清晰。
大模型元年最热门的AI岗位,现在已经过气了——
NotebookLM 正在变成谷歌 AI 路线里最靠谱的选手之一:现在除了支持中文播报,还要上移动 App,变身日常学习办公神器。
在 AI 领域里,大模型通常具有百亿甚至数千亿参数,训练和推理过程对计算资源、存储系统和数据访问效率提出了极高要求。
近年来,「思维链(Chain of Thought,CoT)」成为大模型推理的显学,但要让小模型也拥有长链推理能力却非易事。
就在刚刚,Gemini 2.5 Pro在直播中通关了《宝可梦蓝》!