
快手Klear-Reasoner登顶8B模型榜首,GPPO算法双效强化稳定性与探索能力!
快手Klear-Reasoner登顶8B模型榜首,GPPO算法双效强化稳定性与探索能力!在大语言模型的竞争中,数学与代码推理能力已经成为最硬核的“分水岭”。从 OpenAI 最早将 RLHF 引入大模型训练,到 DeepSeek 提出 GRPO 算法,我们见证了强化学习在推理模型领域的巨大潜力。
在大语言模型的竞争中,数学与代码推理能力已经成为最硬核的“分水岭”。从 OpenAI 最早将 RLHF 引入大模型训练,到 DeepSeek 提出 GRPO 算法,我们见证了强化学习在推理模型领域的巨大潜力。
近日,有消息人士称,曾红极一时的 AI 聊天机器人公司 Character.AI 苦于运营 AI 模型的高昂成本,正在权衡两个选择:要么可能被出售,要么筹集新的资金。这几周,该公司与潜在买家、银行家以及员工进行了磋商。
大模型再强,也躲不过上下文限制的「蕉绿」!MIT等团队推出的一套组合拳——TIM和TIMRUN,轻松突破token天花板,让8b小模型也能实现大杀四方。
8月18日,百度文库上线了一款名为 GenFlow2.0 的 Agent 产品。 在 Agent 层出不穷的 2025 年,市场的第一反应很可能是:「又一个而已」。
近年来,强化学习(Reinforcement Learning, RL)在提升大语言模型(LLM)复杂推理能力方面展现出显著效果,广泛应用于数学解题、代码生成等任务。通过 RL 微调的模型常在推理性能上超越仅依赖监督微调或预训练的模型。
说到底,还不是因为,当前市面上的大多数 AI 工具其实并没有真正把大家的工作流程打通,那些靠内部各平台、内外上下游、历史资料协同才能解决的问题,大多数 AI 工具都帮不上忙。而这些问题,才是各家老板焦虑的根源。
本文提出了一个旨在提升基础模型工具使用能力的大型多模态数据集 ——ToolVQA。现有研究已在工具增强的视觉问答(VQA)任务中展现出较强性能,但在真实世界中,多模态任务往往涉及多步骤推理与功能多样的工具使用,现有模型在此方面仍存在显著差距。
据知情人士透露,Anthropic 即将达成协议,在新一轮融资中筹集高达 100 亿美元资金,这一金额超出预期,成为人工智能初创企业迄今规模最大的超级融资轮之一。
8 月 21 日,快手科技发布的 2025 年第二季度业绩报告,各项核心财务指标表现稳健,超出了市场普遍预期。
一生充满传奇经历的AI先驱Warren Brodey逝世,享年101岁。这位精神病学家出身的思想家,早在AI曙光初露时,便在MIT探索技术解放人类潜能的道路。他在复杂系统和响应式技术方面所做的开拓性工作,为AI等领域的发展奠定了基础。