AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
效率提升25%,灵巧操作数采困境被「臂-手共享自主框架」解决

效率提升25%,灵巧操作数采困境被「臂-手共享自主框架」解决

效率提升25%,灵巧操作数采困境被「臂-手共享自主框架」解决

实现通用机器人的类人灵巧操作能力,是机器人学领域长期以来的核心挑战之一。近年来,视觉 - 语言 - 动作 (Vision-Language-Action,VLA) 模型在机器人技能学习方面展现出显著潜力,但其发展受制于一个根本性瓶颈:高质量操作数据的获取。

来自主题: AI技术研报
8792 点击    2025-12-12 09:38
纯文本驱动视频编辑,清华&华为&中科大实现无需掩码/参考帧就能精准移除/添加对象

纯文本驱动视频编辑,清华&华为&中科大实现无需掩码/参考帧就能精准移除/添加对象

纯文本驱动视频编辑,清华&华为&中科大实现无需掩码/参考帧就能精准移除/添加对象

近年来,基于扩散的视频生成模型的最新进展极大地提高了视频编辑的真实感和可控性。然而,文字驱动的视频对象移除添加依然面临巨大挑战:

来自主题: AI技术研报
7669 点击    2025-12-12 09:37
别让米其林主厨削土豆!英伟达用「小脑指挥大脑」,重构AGI生产力

别让米其林主厨削土豆!英伟达用「小脑指挥大脑」,重构AGI生产力

别让米其林主厨削土豆!英伟达用「小脑指挥大脑」,重构AGI生产力

觉得大模型消耗的算力过大,英伟达推出的8B模型Orchestrator化身「拼好模」,通过组合工具降本增效,使用30%的预算,在HLE上拿下37.1%的成绩。

来自主题: AI技术研报
8810 点击    2025-12-12 08:58
大模型的第一性原理:(一)统计物理篇

大模型的第一性原理:(一)统计物理篇

大模型的第一性原理:(一)统计物理篇

白铂 博士,华为 2012 实验室理论研究部主任 信息论首席科学家

来自主题: AI技术研报
10451 点击    2025-12-12 08:57
你的Agent可能设计错了:UIUC & 斯坦福等联合发文,重构Agent适配2X2

你的Agent可能设计错了:UIUC & 斯坦福等联合发文,重构Agent适配2X2

你的Agent可能设计错了:UIUC & 斯坦福等联合发文,重构Agent适配2X2

随着基础模型的日益成熟,AI领域的研发重心正从“训练更强的模型”转移到“构建更强的系统”。在这个新阶段,适配(Adaptation) 成为了连接通用智能与垂直应用的关键纽带。

来自主题: AI技术研报
8368 点击    2025-12-12 08:53
MIT最新发现:这十年,算法进步被高估了

MIT最新发现:这十年,算法进步被高估了

MIT最新发现:这十年,算法进步被高估了

在过去十年中,AI 的进步主要由两股紧密相关的力量推动:迅速增长的计算预算,以及算法创新。

来自主题: AI技术研报
9933 点击    2025-12-11 14:36
向量数据库新范式:分层存储,让数据从全量加载到按需加载 | Milvus Week

向量数据库新范式:分层存储,让数据从全量加载到按需加载 | Milvus Week

向量数据库新范式:分层存储,让数据从全量加载到按需加载 | Milvus Week

本文为Milvus Week系列第7篇,该系列旨在把Zilliz团队过去半年多积累的先进的技术实践和创新整理成多篇干货深度文章发布。

来自主题: AI技术研报
9546 点击    2025-12-11 14:35
微软发布首个测试时扩展大规模研究,还给出了终极指南

微软发布首个测试时扩展大规模研究,还给出了终极指南

微软发布首个测试时扩展大规模研究,还给出了终极指南

如果说大模型的预训练(Pre-training)是一场拼算力、拼数据的「军备竞赛」,那么测试时扩展(Test-time scaling, TTS)更像是一场在推理阶段进行的「即时战略游戏」。

来自主题: AI技术研报
6812 点击    2025-12-11 11:27
允许AI自我进化,人类将迅速灭亡!Anthropic创始人警告

允许AI自我进化,人类将迅速灭亡!Anthropic创始人警告

允许AI自我进化,人类将迅速灭亡!Anthropic创始人警告

Anthropic联合创始人兼首席科学官Jared Kaplan,认为在2027-2030年期间,我们将不得不做出是否允许 AI 自我进化的抉择,而允许的话很可能导致AI失控,毁灭全人类。Anthropic在迅速提升AI模型性能不断逼近AGI奇点的同时,也在同时让「9人特种部队」用1.4万字的「AI宪法」防范AI失控。

来自主题: AI资讯
10107 点击    2025-12-11 11:26
扩散语言模型推理太慢?北大团队提出ODB-dLLM框架,破解计算访存双重瓶颈

扩散语言模型推理太慢?北大团队提出ODB-dLLM框架,破解计算访存双重瓶颈

扩散语言模型推理太慢?北大团队提出ODB-dLLM框架,破解计算访存双重瓶颈

基于扩散的大语言模型 (dLLM) 凭借全局解码和双向注意力机制解锁了原生的并行解码和受控生成的潜力,最近吸引了广泛的关注。例如 Fast-dLLM 的现有推理框架通过分块半自回归解码进一步实现了 dLLM 对 KV cache 的支持,挑战了传统自回归 LLMs 的统治地位。

来自主题: AI技术研报
5856 点击    2025-12-11 10:42