AI资讯新闻榜单内容搜索-LRM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LRM
IBM发布LLM工具调用判断器ToolRM,工具调用准确率提高25%

IBM发布LLM工具调用判断器ToolRM,工具调用准确率提高25%

IBM发布LLM工具调用判断器ToolRM,工具调用准确率提高25%

Tool-Calling作为Agent的核心模块,智能体的双手,这项关键能力允许 LLM 调用外部函数,例如应用程序接口(APIs)、数据库、计算器和搜索引擎,决定了AI Agent的可执行边界。

来自主题: AI技术研报
6898 点击    2025-09-22 10:34
攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

攻克AI过度思考难题!美团新研究让通过“可验证”过程奖励激活LRM的高效推理

LRM通过简单却有效的RLVR范式,培养了强大的CoT推理能力,但伴随而来的冗长的输出内容,不仅显著增加推理开销,还会影响服务的吞吐量,这种消磨用户耐心的现象被称为“过度思考”问题。

来自主题: AI技术研报
8467 点击    2025-09-12 10:47
AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%

AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%

AI自己给自己当网管,实现安全“顿悟时刻”,风险率直降9.6%

大型推理模型(LRMs)在解决复杂任务时展现出的强大能力令人惊叹,但其背后隐藏的安全风险不容忽视。

来自主题: AI技术研报
7503 点击    2025-06-14 12:35
别再信“LRM无需优化提示词”了,你至少输掉23%的性能,以R1为例

别再信“LRM无需优化提示词”了,你至少输掉23%的性能,以R1为例

别再信“LRM无需优化提示词”了,你至少输掉23%的性能,以R1为例

还记得DeepSeek-R1发布时AI圈的那波狂欢吗?"提示工程已死"、"再也不用费心写复杂提示了"、"推理模型已经聪明到不再需要学习提示词了"......这些观点在社交媒体上刷屏,连不少技术大佬都在转发。再到最近,“提示词写死了”......现实总是来得这么快——乔治梅森大学的研究者们用一个严谨得让人无法反驳的实验,狠狠打了所有人的脸!

来自主题: AI技术研报
7622 点击    2025-06-12 11:59
苹果拆解AI大脑,推理模型全是「装」的?Bengio兄弟合著

苹果拆解AI大脑,推理模型全是「装」的?Bengio兄弟合著

苹果拆解AI大脑,推理模型全是「装」的?Bengio兄弟合著

苹果最新研究揭示大推理模型(LRM)在高复杂度任务中普遍「推理崩溃」:思考路径虽长,却常在关键时刻放弃。即便给予明确算法提示,模型亦无法稳定执行,暴露推理机制的局限性。

来自主题: AI技术研报
6743 点击    2025-06-06 16:14
「边思考、边搜索、边写作」WebThinker开启AI搜索&研究新纪元!

「边思考、边搜索、边写作」WebThinker开启AI搜索&研究新纪元!

「边思考、边搜索、边写作」WebThinker开启AI搜索&研究新纪元!

大型推理模型(如 OpenAI-o1、DeepSeek-R1)展现了强大的推理能力,但其静态知识限制了在复杂知识密集型任务及全面报告生成中的表现。为应对此挑战,深度研究智能体 WebThinker 赋予 LRM 在推理中自主搜索网络、导航网页及撰写报告的能力。

来自主题: AI技术研报
6523 点击    2025-05-16 11:04
用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

用思维干预直接干预LRM内部推理,三种方式实现DeepSeek-R1有效控制。 | 最新

推理增强型大语言模型LRM(如OpenAI的o1、DeepSeek R1和Google的Flash Thinking)通过在生成最终答案前显式生成中间推理步骤,在复杂问题解决方面展现了卓越性能。然而,对这类模型的控制仍主要依赖于传统的输入级操作,如提示工程(Prompt Engineering)等方法,而你可能已经发现这些方法存在局限性。

来自主题: AI技术研报
2408 点击    2025-04-08 08:50
250多篇论文,上海AI Lab综述推理大模型高效思考

250多篇论文,上海AI Lab综述推理大模型高效思考

250多篇论文,上海AI Lab综述推理大模型高效思考

最近,像 OpenAI o1/o3、DeepSeek-R1 这样的大型推理模型(Large Reasoning Models,LRMs)通过加长「思考链」(Chain-of-Thought,CoT)在推理任务上表现惊艳。

来自主题: AI技术研报
7768 点击    2025-04-05 14:45
200美金,人人可手搓QwQ,清华、蚂蚁开源极速RL框架AReaL-boba

200美金,人人可手搓QwQ,清华、蚂蚁开源极速RL框架AReaL-boba

200美金,人人可手搓QwQ,清华、蚂蚁开源极速RL框架AReaL-boba

由于 DeepSeek R1 和 OpenAI o1 等推理模型(LRM,Large Reasoning Model)带来了新的 post-training scaling law,强化学习(RL,Reinforcement Learning)成为了大语言模型能力提升的新引擎。然而,针对大语言模型的大规模强化学习训练门槛一直很高:

来自主题: AI技术研报
9720 点击    2025-03-31 15:07