AI资讯新闻榜单内容搜索-Scaling

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Scaling
Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

Shopee OnePiece:业内首个融合上下文工程、隐式推理和多目标训练策略的生成式搜推建模框架

2025 年,生成式推荐(Generative Recommender,GR)的发展如火如荼,其背后主要的驱动力源自大语言模型(LLM)那诱人的 scaling law 和通用建模能力(general-purpose modeling),将这种能力迁移至搜推广工业级系统大概是这两年每一个从业者孜孜不倦的追求。

来自主题: AI资讯
5519 点击    2025-09-28 18:14
少即是多!78条数据完胜1万条? 高质量数据才是AI真壁垒|上交大/SII最新

少即是多!78条数据完胜1万条? 高质量数据才是AI真壁垒|上交大/SII最新

少即是多!78条数据完胜1万条? 高质量数据才是AI真壁垒|上交大/SII最新

对于提升AI能主动发现问题、提出假设、调用工具并执行解决方案,在真实环境里闭环工作,而不只是在对话里“想”的智能体能力(Agency)。在这篇论文之前的传统方法认为,需要遵循传统语言模型的“规模法则”(Scaling Laws)才能实现,即投入更多的数据就能获得更好的性能。

来自主题: AI技术研报
6648 点击    2025-09-25 15:21
119 页硬核报告丨AI 2030:算力、能源与科研的未来预测

119 页硬核报告丨AI 2030:算力、能源与科研的未来预测

119 页硬核报告丨AI 2030:算力、能源与科研的未来预测

Epoch AI 最近受 Google DeepMind 委托编写了一份分析报告,探讨这种规模扩张(Scaling)在计算、投资、数据、硬件和能源方面将带来哪些影响。在报告中,进一步探讨了这种规模扩张将赋予的未来 AI 能力,尤其是在科研领域,而这正是领先 AI 开发者关注的重点。

来自主题: AI技术研报
7347 点击    2025-09-19 09:50
突破单链思考上限,清华团队提出原生「并行思考」scale范式

突破单链思考上限,清华团队提出原生「并行思考」scale范式

突破单链思考上限,清华团队提出原生「并行思考」scale范式

近年来,大语言模型(LLMs)在复杂推理任务上的能力突飞猛进,这在很大程度上得益于深度思考的策略,即通过增加测试时(test-time)的计算量,让模型生成更长的思维链(Chain-of-Thought)。

来自主题: AI技术研报
5905 点击    2025-09-18 14:49
谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长

很多人认为,Scaling Law 正在面临收益递减,因此继续扩大计算规模训练模型的做法正在被质疑。最近的观察给出了不一样的结论。研究发现,哪怕模型在「单步任务」上的准确率提升越来越慢,这些小小的进步叠加起来,也能让模型完成的任务长度实现「指数级增长」,而这一点可能在现实中更有经济价值。

来自主题: AI技术研报
5706 点击    2025-09-16 15:15
阿里巴巴,投出AI视频生成赛道最大单笔融资

阿里巴巴,投出AI视频生成赛道最大单笔融资

阿里巴巴,投出AI视频生成赛道最大单笔融资

爱诗科技CEO王长虎告诉我们,过去两年,公司做对了两件事:不盲目烧钱扩张,不盲目对模型做Scaling。

来自主题: AI资讯
8997 点击    2025-09-10 13:34
告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升

告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升

告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升

大语言模型通过 CoT 已具备强大的数学推理能力,而 Beam Search、DVTS 等测试时扩展(Test-Time Scaling, TTS)方法可通过分配额外计算资源进一步提升准确性。然而,现有方法存在两大关键缺陷:路径同质化(推理路径趋同)和中间结果利用不足(大量高质量推理分支被丢弃)。

来自主题: AI技术研报
7485 点击    2025-09-03 12:03
你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

你的RAG系统有个数学BUG,DeepMind首次证明嵌入向量检索召回能力有限

最近,工业界“RAG已死”甚嚣尘上。过去几年,AI领域的主旋律是“规模定律”(Scaling Law),即更大的模型、更多的数据会带来更好的性能。即便偶然有瑕疵,也认为只是工程上的不足,并非数学上的不可能。

来自主题: AI技术研报
8124 点击    2025-09-03 11:54