AI资讯新闻榜单内容搜索-数据

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 数据
全球首个真实世界具身多模态数据集,它石智航交卷,比特斯拉还早6个月

全球首个真实世界具身多模态数据集,它石智航交卷,比特斯拉还早6个月

全球首个真实世界具身多模态数据集,它石智航交卷,比特斯拉还早6个月

全球首个真实世界具身多模态数据集,它来了! 刚刚,它石智航发布全球首个大规模真实世界具身VLTA(Vision-Language-Tactile-Action)多模态数据集World In Your Hands(WIYH)。

来自主题: AI技术研报
9775 点击    2025-10-11 12:06
谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)

谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)

谷歌月Tokens消耗量领跑全球了:1300000000000000(别数了是千万亿)

1.3千万亿,一个令人咂舌的数字。这就是谷歌每月处理的Tokens用量。据谷歌“宣传委员”Logan Kilpatrick透露,这一数据来自谷歌对旗下各平台的内部统计。那么在中文世界里,1.3千万亿Tokens约2.17千万亿汉字。换算成对话量,一本《红楼梦》的字数在70-80万左右,相当于一个月内所有人和谷歌AI聊了近30亿本《红楼梦》的内容。

来自主题: AI资讯
8784 点击    2025-10-10 23:21
管你模型多大,250份有毒文档统统放倒,Anthropic:迄今为止规模最大的大模型数据投毒调查

管你模型多大,250份有毒文档统统放倒,Anthropic:迄今为止规模最大的大模型数据投毒调查

管你模型多大,250份有毒文档统统放倒,Anthropic:迄今为止规模最大的大模型数据投毒调查

本次新研究是迄今为止规模最大的大模型数据投毒调查。Anthropic 与英国人工智能安全研究所(UK AI Security Institute)和艾伦・图灵研究所(Alan Turing Institute)联合进行的一项研究彻底打破了这一传统观念:只需 250 份恶意文档就可能在大型语言模型中制造出「后门」漏洞,且这一结论与模型规模或训练数据量无关。

来自主题: AI技术研报
9035 点击    2025-10-10 12:14
NeurIPS 2025 Spotlight | 只需一条演示,DexFlyWheel框架让机器人学会「自我造数据」

NeurIPS 2025 Spotlight | 只需一条演示,DexFlyWheel框架让机器人学会「自我造数据」

NeurIPS 2025 Spotlight | 只需一条演示,DexFlyWheel框架让机器人学会「自我造数据」

近期,北京大学、哈尔滨工业大学联合 PsiBot 灵初智能提出首个自我增强的灵巧操作数据生成框架 ——DexFlyWheel。该框架仅需单条演示即可启动任务,自动生成多样化的灵巧操作数据,旨在缓解灵巧手领域长期存在的数据稀缺问题。目前已被 NeurIPS 2025 接受为 Spotlight(入选率约 3.2%)

来自主题: AI技术研报
9718 点击    2025-10-10 10:26
陶哲轩联手ChatGPT!10分钟击碎30年「无理」难题,数学圈炸裂

陶哲轩联手ChatGPT!10分钟击碎30年「无理」难题,数学圈炸裂

陶哲轩联手ChatGPT!10分钟击碎30年「无理」难题,数学圈炸裂

10分钟,答案浮出水面!陶哲轩用ChatGPT,发现一道30多年来一直认为悬而未决的问题,其实早被华人数学家给破解了。没有「神迹」,他这次只是用对了工具链:ChatGPT算出级数前几项、输入特定数据库、命中序列、找到文献、确认答案。

来自主题: AI资讯
8189 点击    2025-10-07 22:12
EMNLP 2025 | CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

EMNLP 2025 | CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

EMNLP 2025 | CARE:无需外部工具,让大模型原生检索增强推理实现上下文高保真

近日,来自 MetaGPT、蒙特利尔大学和 Mila 研究所、麦吉尔大学、耶鲁大学等机构的研究团队发布 CARE 框架,一个新颖的原生检索增强推理框架,教会 LLM 将推理过程中的上下文事实与模型自身的检索能力有机结合起来。该框架现已全面开源,包括训练数据集、训练代码、模型 checkpoints 和评估代码,为社区提供一套完整的、可复现工作。

来自主题: AI技术研报
7732 点击    2025-10-07 22:10
Meta FAIR田渊栋唯一作者发文:拆解模型「顿悟时刻」

Meta FAIR田渊栋唯一作者发文:拆解模型「顿悟时刻」

Meta FAIR田渊栋唯一作者发文:拆解模型「顿悟时刻」

早在 2021 年,研究人员就已经发现了深度神经网络常常表现出一种令人困惑的现象,模型在早期训练阶段对训练数据的记忆能力较弱,但随着持续训练,在某一个时间点,会突然从记忆转向强泛化。

来自主题: AI技术研报
8907 点击    2025-10-07 22:06
CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶

CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶

CAIR开源发布超声基座大模型EchoCare“聆音”,10余项医学任务性能登顶

2025年9月17日,中国科学院香港创新研究院人工智能与机器人创新中心(CAIR)在香港正式开源发布其最新科研成果——EchoCare“聆音”超声基座大模型(简称“聆音”)。该模型基于超过450万张、涵盖50多个人体器官的大规模超声影像数据集训练而成,在器官识别、器官分割、病灶分类等10余项典型超声医学任务测试中表现卓越,性能全面登顶。

来自主题: AI技术研报
8550 点击    2025-10-06 15:53
NIPS 2025 Spotlight | 港大提出TreeSynth方法,一句话生成百万规模数据集

NIPS 2025 Spotlight | 港大提出TreeSynth方法,一句话生成百万规模数据集

NIPS 2025 Spotlight | 港大提出TreeSynth方法,一句话生成百万规模数据集

“TreeSynth” 就这样起源于作者们最初的构想:“如何通过一句任务描述生成海量数据,完成模型训练?” 同时,大规模 scalibility 对合成数据的多样性提出了新的要求。

来自主题: AI技术研报
8133 点击    2025-10-03 14:45
英伟达一口气开源多项机器人技术,与迪士尼合作研发物理引擎也开源了

英伟达一口气开源多项机器人技术,与迪士尼合作研发物理引擎也开源了

英伟达一口气开源多项机器人技术,与迪士尼合作研发物理引擎也开源了

这次英伟达可谓是“全家桶”式发布:不仅有让机器人拥有”物理直觉”的Newton引擎,还有赋予机器人人类推理能力的Isaac GR00T N1.6基础模型,以及能够生成海量训练数据的Cosmos世界基础模型,直接瞄准了机器人研发中最头疼的几个问题。

来自主题: AI资讯
7976 点击    2025-10-03 11:47