AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

英伟达提出首个Mamba-Transformer视觉骨干网络!打破精度/吞吐瓶颈 | CVPR 2025

CVPR 2025,混合新架构MambaVision来了!Mamba+Transformer混合架构专门为CV应用设计。MambaVision 在Top-1精度和图像吞吐量方面实现了新的SOTA,显著超越了基于Transformer和Mamba的模型。

来自主题: AI技术研报
7591 点击    2025-03-08 13:10
360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

360AI推出DiT架构下"省钱版"ControlNet, 参数量骤减85%性能达到SOTA!

现有的可控Diffusion Transformer方法,虽然在推进文本到图像和视频生成方面取得了显著进展,但也带来了大量的参数和计算开销。

来自主题: AI技术研报
5988 点击    2025-03-03 10:06
MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

MIT三人团队:用Transformer解决经验贝叶斯问题,比经典方法快100倍

Transformer 很成功,更一般而言,我们甚至可以将(仅编码器)Transformer 视为学习可交换数据的通用引擎。由于大多数经典的统计学任务都是基于独立同分布(iid)采用假设构建的,因此很自然可以尝试将 Transformer 用于它们。

来自主题: AI技术研报
6029 点击    2025-03-02 13:22
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
6038 点击    2025-02-28 15:06
不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

不要自回归!扩散模型作者创业,首个商业级扩散LLM来了,编程秒出结果

当前的 AI 领域,可以说 Transformer 与扩散模型是最热门的模型架构。也因此,有不少研究团队都在尝试将这两种架构融合到一起,以两者之长探索新一代的模型范式,比如我们之前报道过的 LLaDA。不过,之前这些成果都还只是研究探索,并未真正实现大规模应用。

来自主题: AI技术研报
9365 点击    2025-02-27 14:40
千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

千帧长视频时代到来!MIT全新扩散算法让任意模型突破时长极限

进入到 2025 年,视频生成(尤其是基于扩散模型)领域还在不断地「推陈出新」,各种文生视频、图生视频模型展现出了酷炫的效果。其中,长视频生成一直是现有视频扩散的痛点。

来自主题: AI技术研报
6053 点击    2025-02-26 13:39
谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

谷歌AI掌门人Jeff Dean对话Transformer作者:AI提速300%,1000万倍工程师要来了

谷歌首席科学家Jeff Dean与Transformer作者Noam Shazeer在一场访谈中不仅揭秘了让模型速度提升三倍的低精度计算技术,分享了「猫神经元」等早期AI突破的背后故事,还大胆畅想了AI处理万亿级别Token、实现「1000万倍工程师」的可能性。

来自主题: AI资讯
5978 点击    2025-02-26 09:47
ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

ICLR 2025|南洋理工大学AvatarGO,探索4D人与物体交互生成新方法

近年来,随着扩散模型和 Transformer 技术的快速发展,4D 人体 - 物体交互(HOI)的生成与驱动效果取得了显著进展。然而,当前主流方法仍依赖 SMPL [1] 这一人体先验模型来生成动作。

来自主题: AI技术研报
8257 点击    2025-02-23 16:39
YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO已经悄悄来到v12,首个以Attention为核心的YOLO框架问世

YOLO 系列模型的结构创新一直围绕 CNN 展开,而让 transformer 具有统治优势的 attention 机制一直不是 YOLO 系列网络结构改进的重点。这主要的原因是 attention 机制的速度无法满足 YOLO 实时性的要求。

来自主题: AI技术研报
8118 点击    2025-02-22 14:14