AI资讯新闻榜单内容搜索-长视频

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长视频
ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

ControlNet作者张吕敏最新论文:长视频也能实现超短上下文

大部分的高质量视频生成模型,都只能生成上限约15秒的视频。清晰度提高之后,生成的视频时长还会再一次缩短。

来自主题: AI技术研报
8958 点击    2026-01-04 11:38
生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

生成不遗忘,「超长时序」世界模型!北大EgoLCD长短时记忆加持

视频生成模型总是「记性不好」?生成几秒钟后物体就变形、背景就穿帮?北大、中大等机构联合发布EgoLCD,借鉴人类「长短时记忆」机制,首创稀疏KV缓存+LoRA动态适应架构,彻底解决长视频「内容漂移」难题,在EgoVid-5M基准上刷新SOTA!让AI像人一样拥有连贯的第一人称视角记忆。

来自主题: AI技术研报
7418 点击    2025-12-25 10:16
VideoCoF:将「时序推理」引入视频编辑,无Mask实现高精度编辑与长视频外推!

VideoCoF:将「时序推理」引入视频编辑,无Mask实现高精度编辑与长视频外推!

VideoCoF:将「时序推理」引入视频编辑,无Mask实现高精度编辑与长视频外推!

现有的视频编辑模型往往面临「鱼与熊掌不可兼得」的困境:专家模型精度高但依赖 Mask,通用模型虽免 Mask 但定位不准。来自悉尼科技大学和浙江大学的研究团队提出了一种全新的视频编辑框架 VideoCoF,受 LLM「思维链」启发,通过「看 - 推理 - 编辑」的流程,仅需 50k 训练数据,就在多项任务上取得了 SOTA 效果,并完美支持长视频外推!

来自主题: AI技术研报
7777 点击    2025-12-23 14:53
长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

长视频让大模型集体失明?谢赛宁、杨立昆、李飞飞等提出空间超感知范式,用“预测未来”代替“暴力记忆”

去年,谢赛宁(Saining Xie)团队发布了 Cambrian-1,一次对图像多模态模型的开放式探索。但团队没有按惯例继续推出 Cambrian-2、Cambrian-3,而是停下来思考:真正的多

来自主题: AI技术研报
7659 点击    2025-11-09 10:38
轻量高效,即插即用:Video-RAG为长视频理解带来新范式

轻量高效,即插即用:Video-RAG为长视频理解带来新范式

轻量高效,即插即用:Video-RAG为长视频理解带来新范式

尽管视觉语言模型(LVLMs)在图像与短视频理解中已取得显著进展,但在处理长时序、复杂语义的视频内容时仍面临巨大挑战 —— 上下文长度限制、跨模态对齐困难、计算成本高昂等问题制约着其实际应用。针对这一难题,厦门大学、罗切斯特大学与南京大学联合提出了一种轻量高效、无需微调的创新框架 ——Video-RAG。

来自主题: AI技术研报
7083 点击    2025-10-22 14:57
边打字边出片,交互式生成长视频!英伟达联合MIT开源新SOTA

边打字边出片,交互式生成长视频!英伟达联合MIT开源新SOTA

边打字边出片,交互式生成长视频!英伟达联合MIT开源新SOTA

AI拍长视频不再是难事!LongLive通过实时交互生成流畅画面,解决了传统方法的卡顿、不连贯等痛点,让普通人都能轻松拍大片。无论是15秒短片还是240秒长片,画面连贯、节奏流畅,让创作变得像打字一样简单。

来自主题: AI技术研报
7954 点击    2025-10-18 12:15
Sora2还在5秒打转,字节AI生视频已经4分钟“起飞”

Sora2还在5秒打转,字节AI生视频已经4分钟“起飞”

Sora2还在5秒打转,字节AI生视频已经4分钟“起飞”

从5秒到4分钟,Sora2也做不到的分钟级长视频生成,字节做到了!这就是字节和UCLA联合提出的新方法——Self-Forcing++,无需更换模型架构或重新收集长视频数据集,就能轻松生成分钟级长视频,也不会后期画质突然变糊或卡住。

来自主题: AI技术研报
7713 点击    2025-10-18 11:36
NeurIPS 2025 | 面向具身场景的生成式渲染器TC-Light来了,代码已开源

NeurIPS 2025 | 面向具身场景的生成式渲染器TC-Light来了,代码已开源

NeurIPS 2025 | 面向具身场景的生成式渲染器TC-Light来了,代码已开源

TC-Light 是由中科院自动化所张兆翔教授团队研发的生成式渲染器,能够对具身训练任务中复杂和剧烈运动的长视频序列进行逼真的光照与纹理重渲染,同时具备良好的时序一致性和低计算成本开销,使得它能够帮助减少 Sim2Real Gap 以及实现 Real2Real 的数据增强,帮助获得具身智能训练所需的海量高质量数据。

来自主题: AI技术研报
7512 点击    2025-09-27 11:06
长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍

长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍

长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍

VMem用基于3D几何的记忆索引替代「只看最近几帧」的短窗上下文:检索到的参考视角刚好看过你现在要渲染的表面区域;让模型在小上下文里也能保持长时一致性;实测4.2s/帧,比常规21帧上下文的管线快~12倍。

来自主题: AI技术研报
7373 点击    2025-09-06 11:43