
谢赛宁团队新作:不用提示词精准实现3D画面控制
谢赛宁团队新作:不用提示词精准实现3D画面控制曾几何时,用文字生成图像已经变得像用笔作画一样稀松平常。
来自主题: AI技术研报
5438 点击 2025-07-03 18:16
曾几何时,用文字生成图像已经变得像用笔作画一样稀松平常。
最近在推特上刷到一条视频,特别火爆,彻底把我看呆了。
一句话提示,Claude自动化打开Blender将2D图片转为3D建模。背后关键还是最近大火的MCP(Model Context Protocol)——复刻Manus的重要诀窍。将这套协议和Blender打通,即可获得如上效果。该开源项目BlenderMCP,上线短短3天,GitHub标星已达3.8k。
来自中国科学院深圳先进技术研究院、中国科学院大学和 VIVO AI Lab 的研究者联合提出了一个无需训练的文本生成视频新框架 ——GPT4Motion。GPT4Motion 结合了 GPT 等大型语言模型的规划能力、Blender 软件提供的物理模拟能力,以及扩散模型的文生图能力,旨在大幅提升视频合成的质量。
Blend是一家英国初创公司,它正在利用人工智能来穿越噪音,帮助购物者找到适合他们风格、预算和尺码的个性化产品推荐。