AI资讯新闻榜单内容搜索-CVPR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CVPR
1毫秒级,最快的人体动作捕捉服!开源715万帧数据集| CVPR'26

1毫秒级,最快的人体动作捕捉服!开源715万帧数据集| CVPR'26

1毫秒级,最快的人体动作捕捉服!开源715万帧数据集| CVPR'26

全球首个1毫秒级人体动作捕捉系统FlashCap,通过闪烁LED与事件相机结合,实现1000Hz超高帧率捕捉。无需昂贵设备或强光环境,低成本穿戴服即可精准捕捉极速动作。团队同步开源715万帧的FlashMotion数据集与多模态模型ResPose,显著提升运动分析精度,推动体育、VR与机器人领域迈向高动态智能新阶段。

来自主题: AI技术研报
6222 点击    2026-03-31 14:40
CVPR 2026 | BiMotion:用 B 样条曲线重新定义 3D 角色运动生成

CVPR 2026 | BiMotion:用 B 样条曲线重新定义 3D 角色运动生成

CVPR 2026 | BiMotion:用 B 样条曲线重新定义 3D 角色运动生成

当你希望 AI 将 "士兵举起手臂,向后倾身,然后身体向前扑倒" 这段文字转化为一段 3D 角色动画,现有大多数方法给出的答案是:一段摇摇晃晃、语义残缺的短片段。这并非模型能力不足,问题的根源在于将运动表达为逐帧离散序列这一根本性的设计决策。

来自主题: AI技术研报
6925 点击    2026-03-30 09:28
破解在线长时序重建难题!纯视觉、单卡实时的公里级流式3D重建|CVPR'26

破解在线长时序重建难题!纯视觉、单卡实时的公里级流式3D重建|CVPR'26

破解在线长时序重建难题!纯视觉、单卡实时的公里级流式3D重建|CVPR'26

在自动驾驶、具身智能、AR/VR应用中做3D重建,大家都想解决一个终极问题: 模型能不能像人一样,一边往前看,一边持续构建三维世界?

来自主题: AI技术研报
7694 点击    2026-03-24 16:28
CVPR 2026 | 让AI视频不再「串戏」:免训练精准控制多段动作,SwitchCraft一招破解逻辑崩坏

CVPR 2026 | 让AI视频不再「串戏」:免训练精准控制多段动作,SwitchCraft一招破解逻辑崩坏

CVPR 2026 | 让AI视频不再「串戏」:免训练精准控制多段动作,SwitchCraft一招破解逻辑崩坏

近年来,随着 Sora、Seedance 等文本到视频(T2V)扩散模型的飞速发展,AI 视频生成在视觉保真度与动态表现上已取得突破性进展。特别是近期备受瞩目的 Seedance 2.0,展现出了极其强大的多镜头叙事与复杂分镜控制能力。

来自主题: AI技术研报
10113 点击    2026-03-24 16:28
CVPR 2026 | 中科院、港中文等提出HiFi-Inpaint:无损还原物体细节,重塑Inpainting生成范式!

CVPR 2026 | 中科院、港中文等提出HiFi-Inpaint:无损还原物体细节,重塑Inpainting生成范式!

CVPR 2026 | 中科院、港中文等提出HiFi-Inpaint:无损还原物体细节,重塑Inpainting生成范式!

在 AIGC 领域,基于参考图像的图像修复(Reference-based Inpainting)一直是一项备受关注的核心任务,它旨在利用参考图像引导修复过程,生成视觉一致的内容。这一技术在广告营销和电商领域有着巨大的应用潜力,例如让 AI 自动生成 “真人手持或穿戴商品” 的展示图。

来自主题: AI技术研报
5670 点击    2026-03-23 09:53
CVPR 2026 | 从「单帧」到「分镜」:STAGE重新定义AI电影叙事

CVPR 2026 | 从「单帧」到「分镜」:STAGE重新定义AI电影叙事

CVPR 2026 | 从「单帧」到「分镜」:STAGE重新定义AI电影叙事

目前,该论文已录用至 CVPR 2026,相关数据集和模型训练训练和推理代码将逐步开源:究其原因,一个好故事并非一堆漂亮镜头的简单拼接,而是一个有结构、有逻辑的叙事整体。

来自主题: AI技术研报
8148 点击    2026-03-22 09:39
CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

CVPR 2026 | EmoStyle:情感也能“风格化”?深大VCC带你见证魔法!

EmoStyle 由深圳大学可视计算研究中心黄惠教授课题组独立完成,第一作者为杨景媛助理教授,第二作者为研二硕士生柏梓桓。深圳大学可视计算研究中心(VCC)以计算机图形学、计算机视觉、人机交互、机器学习、具身智能、可视化和可视分析为学科基础,致力前沿探索与跨学科创新。

来自主题: AI技术研报
7133 点击    2026-03-20 10:18
生成视频总出物理bug?用VLM迁移+token级对齐,让燃烧在正确位置发生,碰撞遵循动量守恒丨CVPR 2026近满分接收

生成视频总出物理bug?用VLM迁移+token级对齐,让燃烧在正确位置发生,碰撞遵循动量守恒丨CVPR 2026近满分接收

生成视频总出物理bug?用VLM迁移+token级对齐,让燃烧在正确位置发生,碰撞遵循动量守恒丨CVPR 2026近满分接收

当人们谈到“世界模型”(World Models)时,很多人会首先想到近年来迅速发展的生成式视频模型。

来自主题: AI技术研报
8244 点击    2026-03-20 09:39
CVPR 2026 | 给扩散模型装上「物理引擎」: 北大彭宇新团队提出NS-Diff,使扩散模型学会流体与刚体力学

CVPR 2026 | 给扩散模型装上「物理引擎」: 北大彭宇新团队提出NS-Diff,使扩散模型学会流体与刚体力学

CVPR 2026 | 给扩散模型装上「物理引擎」: 北大彭宇新团队提出NS-Diff,使扩散模型学会流体与刚体力学

本文是北京大学彭宇新教授团队在文本生成视频领域的最新研究成果,相关论文已被 CVPR 2026 接收。

来自主题: AI技术研报
7748 点击    2026-03-19 15:22