AI资讯新闻榜单内容搜索-思维链

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 思维链
思维链?思维树?华为诺亚:现在到了思维森林时刻!

思维链?思维树?华为诺亚:现在到了思维森林时刻!

思维链?思维树?华为诺亚:现在到了思维森林时刻!

OpenAI 接连发布 o1 和 o3 模型,大模型的高阶推理能力正在迎来爆发式增强。在预训练 Scaling law “撞墙” 的背景下,探寻新的 Scaling law 成为业界关注的热点。高阶推理能力有望开启新的 Scaling law,为大模型的发展注入新的活力。

来自主题: AI技术研报
6621 点击    2025-01-14 14:43
迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

迈向System 2推理,100页论文硬核讲述Meta-CoT

Meta-CoT 通过显式建模生成特定思维链(CoT)所需的底层推理过程,扩展了传统的思维链方法。

来自主题: AI资讯
6478 点击    2025-01-12 10:08
Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

2023 年初,Jason Wei 加入了 OpenAI,参与了 ChatGPT 的构建以及 o1 等重大项目。他的工作使思维链提示、指令微调和涌现现象等技术和概念变得广为人知。

来自主题: AI资讯
6027 点击    2025-01-04 14:32
引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

引入长思维链!微信基于阿里千问大模型搞出个翻译版o1

最近,类 o1 模型的出现,验证了长思维链 (CoT) 在数学和编码等推理任务中的有效性。在长思考(long thought)的帮助下,LLM 倾向于探索、反思和自我改进推理过程,以获得更准确的答案。

来自主题: AI技术研报
7209 点击    2024-12-27 10:03
压缩思维链CCoT:一种突破性的高效AI推理新范式

压缩思维链CCoT:一种突破性的高效AI推理新范式

压缩思维链CCoT:一种突破性的高效AI推理新范式

在大语言模型(LLM)的发展历程中,思维链(Chain of Thought,CoT)推理无疑是一个重要的里程碑。

来自主题: AI技术研报
7913 点击    2024-12-24 09:51
全面超越CoT!Meta田渊栋团队新作:连续思维链

全面超越CoT!Meta田渊栋团队新作:连续思维链

全面超越CoT!Meta田渊栋团队新作:连续思维链

针对大语言模型的推理任务,近日,Meta田渊栋团队提出了一个新的范式:连续思维链,对比传统的CoT,性能更强,效率更高。

来自主题: AI技术研报
7374 点击    2024-12-19 13:33
多智能体架构Insight-V来了!突破长链视觉推理瓶颈

多智能体架构Insight-V来了!突破长链视觉推理瓶颈

多智能体架构Insight-V来了!突破长链视觉推理瓶颈

大语言模型(LLMs)通过更多的推理展现出了更强的能力和可靠性,从思维链提示发展到了 OpenAI-o1 这样具有较强推理能力的模型。

来自主题: AI技术研报
5718 点击    2024-12-13 14:40
田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

一般而言,LLM 被限制在语言空间(language space)内进行推理,并通过思维链(CoT)来表达推理过程,从而解决复杂的推理问题。

来自主题: AI技术研报
6172 点击    2024-12-12 10:19
数字比你想得更复杂——一文带你了解大模型数字处理能力的方方面面

数字比你想得更复杂——一文带你了解大模型数字处理能力的方方面面

数字比你想得更复杂——一文带你了解大模型数字处理能力的方方面面

目前大语言模型(Large Language Models, LLMs)的推理能力备受关注。从思维链(Chain of Thought,CoT)技术提出,到以 o1 为代表的长思考模型发布,大模型正在展现出接近人类甚至领域专家的水平,其中数学推理是一个典型任务。

来自主题: AI技术研报
7565 点击    2024-12-12 10:06