AI资讯新闻榜单内容搜索-Scaling

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Scaling
思维链?思维树?华为诺亚:现在到了思维森林时刻!

思维链?思维树?华为诺亚:现在到了思维森林时刻!

思维链?思维树?华为诺亚:现在到了思维森林时刻!

OpenAI 接连发布 o1 和 o3 模型,大模型的高阶推理能力正在迎来爆发式增强。在预训练 Scaling law “撞墙” 的背景下,探寻新的 Scaling law 成为业界关注的热点。高阶推理能力有望开启新的 Scaling law,为大模型的发展注入新的活力。

来自主题: AI技术研报
6622 点击    2025-01-14 14:43
仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o

仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o

仅需一万块钱!清华团队靠强化学习让 7B模型数学打败GPT-4o

OpenAI o1和o3模型的发布证明了强化学习能够让大模型拥有像人一样的快速迭代试错、深度思考的高阶推理能力,在基于模仿学习的Scaling Law逐渐受到质疑的今天,基于探索的强化学习有望带来新的Scaling Law。

来自主题: AI资讯
6114 点击    2025-01-06 14:56
Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

Just keep scaling!思维链作者Jason Wei 40分钟讲座剖析LLM扩展范式

2023 年初,Jason Wei 加入了 OpenAI,参与了 ChatGPT 的构建以及 o1 等重大项目。他的工作使思维链提示、指令微调和涌现现象等技术和概念变得广为人知。

来自主题: AI资讯
6029 点击    2025-01-04 14:32
数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

最近 AI 社区很多人都在讨论 Scaling Law 是否撞墙的问题。其中,一个支持 Scaling Law 撞墙论的理由是 AI 几乎已经快要耗尽已有的高质量数据,比如有一项研究就预计,如果 LLM 保持现在的发展势头,到 2028 年左右,已有的数据储量将被全部利用完。

来自主题: AI技术研报
8355 点击    2025-01-03 15:46
对话AI科学家刘威:“Ilya预训练终结论”对中国大模型公司影响不大

对话AI科学家刘威:“Ilya预训练终结论”对中国大模型公司影响不大

对话AI科学家刘威:“Ilya预训练终结论”对中国大模型公司影响不大

过去一段时间,“预训练终结”成为了 AI 领域最热烈的讨论之一。OpenAI的GPT系列模型此前大踏步的前进,预训练是核心推动力。而前 OpenAI 首席科学家 Ilya Sutskever、预训练和scaling law(规模定律)最忠实的倡导者,却宣称预训练要终结了、scaling law要失效。由此,引发了大量争议。

来自主题: AI资讯
8082 点击    2025-01-03 09:50
多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」

多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」

多模态模型已落地多领域,OpenBayes贝式计算获评「大模型最具潜力创业企业 TOP 10」

在 2024 年的 NeurIPS 会议上,Ilya Sutskever 提出了一系列关于人工智能发展的挑战性观点,尤其集中于 Scaling Law 的观点:「现有的预训练方法将会结束」,这不仅是一次技术的自然演进,也可能标志着对当前「大力出奇迹」方法的根本性质疑。

来自主题: AI资讯
6127 点击    2025-01-02 16:31
斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

斯坦福、Deepmind、剑桥联合发文:推理 Scaling Up 的简单技巧

随着 o1、o1 Pro 和 o3 的成功发布,我们明显看到,推理所需的时间和计算资源逐步上升。可以说,o1 的最大贡献在于它揭示了提升模型效果的另一种途径:在推理过程中,通过优化计算资源的配置,可能比单纯扩展模型参数更为高效。

来自主题: AI技术研报
8252 点击    2024-12-30 14:32
机器人空间泛化也有Scaling Law!清华新国大新算法框架让机器人操作更加鲁棒

机器人空间泛化也有Scaling Law!清华新国大新算法框架让机器人操作更加鲁棒

机器人空间泛化也有Scaling Law!清华新国大新算法框架让机器人操作更加鲁棒

在机器人空间泛化领域,原来也有一套Scaling Law! 来自清华和新加坡国立大学的团队,发现了空间智能的泛化性规律。 在此基础上,他们提出了一套新颖的算法框架——ManiBox,让机器人能够在真实世界中应对多样化的物体位置和复杂的场景布置。

来自主题: AI技术研报
6401 点击    2024-12-29 17:33
OpenAI研究员首次提出「AGI时间」进化论!o1数学已达「分钟级AGI」

OpenAI研究员首次提出「AGI时间」进化论!o1数学已达「分钟级AGI」

OpenAI研究员首次提出「AGI时间」进化论!o1数学已达「分钟级AGI」

本月,OpenAI科学家就当前LLM的scaling方法论能否实现AGI话题展开深入辩论,认为将来AI至少与人类平分秋色;LLM scaling目前的问题可以通过后训练、强化学习、合成数据、智能体协作等方法得到解决;按现在的趋势估计,明年LLM就能赢得IMO金牌。

来自主题: AI技术研报
6670 点击    2024-12-28 13:48