AI资讯新闻榜单内容搜索-AR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AR
3B Image Captioning小钢炮重磅来袭,性能比肩Qwen2.5-VL-72B

3B Image Captioning小钢炮重磅来袭,性能比肩Qwen2.5-VL-72B

3B Image Captioning小钢炮重磅来袭,性能比肩Qwen2.5-VL-72B

今天推荐一个 Dense Image Captioning 的最新技术 —— CapRL (Captioning Reinforcement Learning)。CapRL 首次成功将 DeepSeek-R1 的强化学习方法应用到 image captioning 这种开放视觉任务,创新的以实用性重新定义 image captioning 的 reward。

来自主题: AI技术研报
9128 点击    2025-10-29 10:24
仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

大语言模型(LLMs)推理能力近年来快速提升,但传统方法依赖大量昂贵的人工标注思维链。中国科学院计算所团队提出新框架PARO,通过让模型学习固定推理模式自动生成思维链,只需大模型标注1/10数据就能达到全量人工标注的性能。这种方法特别适合像金融、审计这样规则清晰的领域,为高效推理监督提供了全新思路。

来自主题: AI技术研报
5667 点击    2025-10-29 10:15
蚂蚁新报告!全盘公开Ling 2.0训练细节,性能突破的四大关键曝光

蚂蚁新报告!全盘公开Ling 2.0训练细节,性能突破的四大关键曝光

蚂蚁新报告!全盘公开Ling 2.0训练细节,性能突破的四大关键曝光

蚂蚁集团这波操作大圈粉!智东西10月28日报道,10月25日,蚂蚁集团在arXiv上传了一篇技术报告,一股脑将自家2.0系列大模型训练的独家秘籍全盘公开。今年9月至今,蚂蚁集团百灵大模型Ling 2.0系列模型陆续亮相,其万亿参数通用语言模型Ling-1T多项指标位居开源模型的榜首

来自主题: AI技术研报
8333 点击    2025-10-28 21:47
DeepMind再登Nature:AI Agent造出了最强RL算法!

DeepMind再登Nature:AI Agent造出了最强RL算法!

DeepMind再登Nature:AI Agent造出了最强RL算法!

当AI开始「自己学会学习」,人类的角色正在被重写。DeepMind最新研究DiscoRL,让智能体在多环境交互中自主发现强化学习规则——无需人类设计算法。它在Atari基准中击败MuZero,在从未见过的游戏中依旧稳定高效。

来自主题: AI技术研报
9245 点击    2025-10-28 14:56
大模型在具身推理上「翻车」了?4496 道题全面揭示短板

大模型在具身推理上「翻车」了?4496 道题全面揭示短板

大模型在具身推理上「翻车」了?4496 道题全面揭示短板

具身智能是近年来非常火概念。一个智能体(比如人)能够在环境中完成感知、理解与决策的闭环,并通过环境反馈不断进入新一轮循环,直至任务完成。这一过程往往依赖多种技能,涵盖了底层视觉对齐,空间感知,到上层决策的不同能力,这些能力便是广义上的具身智能。

来自主题: AI技术研报
5945 点击    2025-10-28 13:44
中美AI炒币炒股阶段战果出炉:DeepSeek与Qwen稳健致胜,Gemini高频交易策略失效

中美AI炒币炒股阶段战果出炉:DeepSeek与Qwen稳健致胜,Gemini高频交易策略失效

中美AI炒币炒股阶段战果出炉:DeepSeek与Qwen稳健致胜,Gemini高频交易策略失效

近日,号称是首个专注于金融市场的 AI 实验室的美国实验室 Nof1 启动了一个将多个 AI 大模型置于真实金融市场中进行自动化交易对决的实验平台。这一项目的名称叫做 Alpha Arena,它是一个

来自主题: AI资讯
9264 点击    2025-10-28 08:15
数据集蒸馏,连发两篇顶会!10%样本实现全量性能,鲁棒不失真

数据集蒸馏,连发两篇顶会!10%样本实现全量性能,鲁棒不失真

数据集蒸馏,连发两篇顶会!10%样本实现全量性能,鲁棒不失真

数据集蒸馏是一种用少量合成数据替代全量数据训练模型的技术,能让模型高效又节能。WMDD和GUARD两项研究分别解决了如何保留原始数据特性并提升模型对抗扰动能力的问题,使模型在少量数据上训练时既准确又可靠。

来自主题: AI技术研报
8625 点击    2025-10-27 17:16
NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

自回归(AR)大语言模型逐 token 顺序解码的范式限制了推理效率;扩散 LLM(dLLM)以并行生成见长,但过去难以稳定跑赢自回归(AR)模型,尤其是在 KV Cache 复用、和 可变长度 支持上仍存挑战。

来自主题: AI技术研报
7082 点击    2025-10-27 16:46