AI资讯新闻榜单内容搜索-端到端

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 端到端
清华新框架让大模型学会「精读略读」!实现12倍端到端加速,基准评分翻倍

清华新框架让大模型学会「精读略读」!实现12倍端到端加速,基准评分翻倍

清华新框架让大模型学会「精读略读」!实现12倍端到端加速,基准评分翻倍

来自清华大学、鹏城实验室与阿里巴巴未来生活实验室的联合研究团队发现:现有任务相关的压缩方法不仅陷入效率瓶颈——要么一次性加载全文(效率低),要么自回归逐步压缩(速度慢),更难以兼顾“保留关键信息”与“保持自然语言可解释性”。

来自主题: AI技术研报
8838 点击    2026-02-15 21:25
刚刚,创智+模思发布开源版Sora2,电影级音视频同步生成,打破闭源技术垄断

刚刚,创智+模思发布开源版Sora2,电影级音视频同步生成,打破闭源技术垄断

刚刚,创智+模思发布开源版Sora2,电影级音视频同步生成,打破闭源技术垄断

今天上午,上海创智学院 OpenMOSS 团队联合初创公司模思智能(MOSI),正式发布了端到端音视频生成模型 —— MOVA(MOSS-Video-and-Audio)。

来自主题: AI技术研报
7869 点击    2026-01-30 10:39
百万围观、HuggingFace多模态登顶,华人团队FlashLabs开源语音模型Chroma 1.0

百万围观、HuggingFace多模态登顶,华人团队FlashLabs开源语音模型Chroma 1.0

百万围观、HuggingFace多模态登顶,华人团队FlashLabs开源语音模型Chroma 1.0

近期,FlashLabs 发布并开源了其实时语音模型 Chroma 1.0,其定位为全球首个开源的端到端语音到语音模型。Chroma 1.0 发布之后,便在社媒爆火,吸引了大量的关注。X 上的官推帖子已经突破了百万浏览量。

来自主题: AI资讯
8415 点击    2026-01-23 16:25
效果、性能双突破,快手OneSug端到端生成式框架入选AAAI 2026

效果、性能双突破,快手OneSug端到端生成式框架入选AAAI 2026

效果、性能双突破,快手OneSug端到端生成式框架入选AAAI 2026

当你在电商平台搜索“苹果”,系统会推荐“水果”还是“手机”?或者直接跳到某个品牌旗舰店?短短一个词,背后承载了完全不同的购买意图。而推荐是否精准,直接影响用户的搜索体验,也影响平台的转化效率。

来自主题: AI技术研报
10112 点击    2026-01-19 15:15
开源8300小时标注数据,新一代实时通用游戏AI Pixel2Play发布

开源8300小时标注数据,新一代实时通用游戏AI Pixel2Play发布

开源8300小时标注数据,新一代实时通用游戏AI Pixel2Play发布

来自 Player2 的研究员们提出了 Pixel2Play(P2P)模型,该模型以游戏画面和文本指令作为输入,直接输出对应的键盘与鼠标操作信号。在消费级显卡 RTX 5090 上,P2P 可以实现超过 20Hz 的端到端推理速度,从而能够真正像人类一样和游戏进行实时交互。P2P 作为通用游戏基座模型,在超过 40 款游戏、总计 8300 + 小时的游戏数据上进行了训练,

来自主题: AI技术研报
7543 点击    2026-01-18 15:01
端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统

端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统

端到端智驾新SOTA | KnowVal:懂法律道德、有价值观的智能驾驶系统

一个智能驾驶系统,在迈向高阶自动驾驶的过程中,应当具备何种能力?除了基础的感知、预测、规划、决策能力,如何对三维空间进行更深入的理解?如何具备包含法律法规、道德原则、防御性驾驶原则等知识?如何进行基本的视觉 - 语言推理?如何让智能系统具备世界观和价值观?

来自主题: AI技术研报
7644 点击    2026-01-15 09:18
「未来不远机器人」完成 2 亿元天使轮融资,真格领投,已进入上百真实家庭试用

「未来不远机器人」完成 2 亿元天使轮融资,真格领投,已进入上百真实家庭试用

「未来不远机器人」完成 2 亿元天使轮融资,真格领投,已进入上百真实家庭试用

未来不远(Futuring Robot)正式宣布完成 2 亿元的天使轮融资,目前已经完成家庭通用机器人领域端到端模型落地,真实家庭实测,C 端商业化等重大阶段。

来自主题: AI资讯
6781 点击    2026-01-13 10:22
「听觉」引导「视觉」,OmniAgent开启全模态主动感知新范式

「听觉」引导「视觉」,OmniAgent开启全模态主动感知新范式

「听觉」引导「视觉」,OmniAgent开启全模态主动感知新范式

针对端到端全模态大模型(OmniLLMs)在跨模态对齐和细粒度理解上的痛点,浙江大学、西湖大学、蚂蚁集团联合提出 OmniAgent。这是一种基于「音频引导」的主动感知 Agent,通过「思考 - 行动 - 观察 - 反思」闭环,实现了从被动响应到主动探询的范式转变。

来自主题: AI技术研报
6465 点击    2026-01-09 10:54
AAAI 2026 | 小鹏联合北大,专为VLA模型定制视觉token剪枝方法,让端到端自动驾驶更高效

AAAI 2026 | 小鹏联合北大,专为VLA模型定制视觉token剪枝方法,让端到端自动驾驶更高效

AAAI 2026 | 小鹏联合北大,专为VLA模型定制视觉token剪枝方法,让端到端自动驾驶更高效

VLA 模型正被越来越多地应用于端到端自动驾驶系统中。然而,VLA 模型中冗长的视觉 token 极大地增加了计算成本。但现有的视觉 token 剪枝方法都不是专为自动驾驶设计的,在自动驾驶场景中都具有局限性。

来自主题: AI技术研报
8602 点击    2026-01-04 15:22