AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
空间智能终极挑战MMSI-Video-Bench来了,顶级大模型全军覆没

空间智能终极挑战MMSI-Video-Bench来了,顶级大模型全军覆没

空间智能终极挑战MMSI-Video-Bench来了,顶级大模型全军覆没

空间理解能力是多模态大语言模型(MLLMs)走向真实物理世界,成为 “通用型智能助手” 的关键基础。但现有的空间智能评测基准往往有两类问题:一类高度依赖模板生成,限制了问题的多样性;另一类仅聚焦于某一种空间任务与受限场景,因此很难全面检验模型在真实世界中对空间的理解与推理能力。

来自主题: AI技术研报
7179 点击    2026-01-06 09:50
检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

在检索增强生成中,扩大生成模型规模往往能提升准确率,但也会显著抬高推理成本与部署门槛。CMU 团队在固定提示模板、上下文组织方式与证据预算,并保持检索与解码设置不变的前提下,系统比较了生成模型规模与检索语料规模的联合效应,发现扩充检索语料能够稳定增强 RAG,并在多项开放域问答基准上让小中型模型在更大语料下达到甚至超过更大模型在较小语料下的表现,同时在更高语料规模处呈现清晰的边际收益递减。

来自主题: AI技术研报
7324 点击    2026-01-06 09:30
语义分割别无脑用Argmax!港中文新算法:三行代码,推理速度提升10倍

语义分割别无脑用Argmax!港中文新算法:三行代码,推理速度提升10倍

语义分割别无脑用Argmax!港中文新算法:三行代码,推理速度提升10倍

香港中文大学提出了一个全新的算法框架RankSEG,用于提升语义分割任务的性能。传统方法在预测阶段使用threshold或argmax生成掩码,但这种方法并非最优。RankSEG无需重新训练模型,仅需在推理阶段增加三行代码,即可显著提高Dice或IoU等分割指标。

来自主题: AI技术研报
8790 点击    2026-01-05 14:27
Nano Banana不会应试!指标拉垮,视觉效果惊艳,实测14个任务

Nano Banana不会应试!指标拉垮,视觉效果惊艳,实测14个任务

Nano Banana不会应试!指标拉垮,视觉效果惊艳,实测14个任务

最新报告探讨了生成式模型Nano Banana Pro在低层视觉任务中的表现,如去雾、超分等,传统上依赖PSNR/SSIM等像素级指标。研究发现,Nano Banana Pro在视觉效果上更佳,但传统指标表现欠佳,因生成式模型更追求语义合理而非像素对齐。

来自主题: AI技术研报
8949 点击    2026-01-05 10:17
科研人福音!一键生成PPT和科研绘图,北大开源Paper2Any,全流程可编辑

科研人福音!一键生成PPT和科研绘图,北大开源Paper2Any,全流程可编辑

科研人福音!一键生成PPT和科研绘图,北大开源Paper2Any,全流程可编辑

你是否经历过这样的至暗时刻: 明明实验数据已经跑通,核心逻辑也已梳理完毕,却在面对空白的 PPT 页面时陷入停滞; 明明脑海里有清晰的系统架构,却要在 Visio 或 Illustrator 里跟一根歪歪扭扭的线条较劲半小时; 好不容易用 AI 生成了一张精美的流程图,却发现上面的文字是乱码,或者为了改一个配色不得不重新生成几十次……

来自主题: AI技术研报
8648 点击    2026-01-05 09:52
比SOTA提速10倍!北大DragMesh重塑3D交互,物理零失真

比SOTA提速10倍!北大DragMesh重塑3D交互,物理零失真

比SOTA提速10倍!北大DragMesh重塑3D交互,物理零失真

让静态3D模型「动起来」一直是图形学界的难题:物理模拟太慢,生成模型又不讲「物理基本法」。近日,北京大学团队提出DragMesh,通过「语义-几何解耦」范式与双四元数VAE,成功将核心生成模块的算力消耗降低至SOTA模型的1/10,同时将运动轴预测误差降低了10倍。

来自主题: AI资讯
6750 点击    2026-01-05 09:35
字节Seed:大概念模型来了,推理的何必是下一个token

字节Seed:大概念模型来了,推理的何必是下一个token

字节Seed:大概念模型来了,推理的何必是下一个token

LLM的下一个推理单位,何必是Token?刚刚,字节Seed团队发布最新研究——DLCM(Dynamic Large Concept Models)将大模型的推理单位从token(词) 动态且自适应地推到了concept(概念)层级。

来自主题: AI技术研报
9118 点击    2026-01-04 21:01
MIT发现让AI变聪明的秘密,竟然和人类一模一样

MIT发现让AI变聪明的秘密,竟然和人类一模一样

MIT发现让AI变聪明的秘密,竟然和人类一模一样

你有没有发现,你让AI读一篇长文章,结果它读着读着就忘了前面的内容? 你让它处理一份超长的文档,结果它给出来的答案,牛头不对马嘴? 这个现象,学术界有个专门的名词,叫做上下文腐化。 这也是目前AI的通病:大模型的记忆力太差了,文章越长,模型越傻!

来自主题: AI技术研报
8930 点击    2026-01-04 16:53
让AI只丢隐私、不丢本事:科学家实现多模态AI精准遗忘,敏感信息自动隔离

让AI只丢隐私、不丢本事:科学家实现多模态AI精准遗忘,敏感信息自动隔离

让AI只丢隐私、不丢本事:科学家实现多模态AI精准遗忘,敏感信息自动隔离

你有没有想过,如果你和 AI 聊天,无意中把自己的生日、住址或照片告诉了它,这些信息会不会被它记住?以及我们是否可以像删除微信聊天记录一样,让 AI 忘记这些隐私?

来自主题: AI资讯
10047 点击    2026-01-04 16:07