AI上国内团队好像被甩开了?差钱?差人?
AI上国内团队好像被甩开了?差钱?差人?当我们还在困扰为什么国内大模型没有GPT4好用的时候,Sora来了。这潜在意味着从AGI视角看,追赶一年后差距似乎并没有缩小反倒是被拉大了。
当我们还在困扰为什么国内大模型没有GPT4好用的时候,Sora来了。这潜在意味着从AGI视角看,追赶一年后差距似乎并没有缩小反倒是被拉大了。
生成60秒逼真视频,只是未来的一个小功能,母模型根科技原力觉醒。来自未来实验室的首席专家胡延平就爆火Sora模型做出了深度的个人解读。
AI技术让人类重新审视技术保守主义者的观点,当普通人在AI大潮中难以保全自己时,思考技术发展的正当性似乎成了有价值的事情。
本文讨论了在AI普及的时代,人们的脑洞创造力将变得更为重要。作者认为,AI可以帮助人们实现脑洞,而脑洞、文字叙述能力和审美情趣将成为AI时代人才标准的三大核心竞争力。
简单说一下我的见解,以公司和技术趋势而不是个人的角度做一些分析,并预测一些OpenAI下一步的进展。
从文本生成模型 GPT、文生图模型 DALL·E,到文生视频模型 Sora,OpenAI 可以说成功跑通了 AGI 的所有技术栈,为什么是 OpenAI 而不是谷歌、Meta?
春节期间,OpenAI又悄悄投出了一颗深水炸弹——Sora。 也就是文生视频的AI模型,相较于此前的Pika、Runway,Sora生成的60秒视频更流畅,也更逼真。
本文总结了关于Sora的四点启发,包括视觉数据训练出更强的泛化能力、OpenAI的Scaling Law路线、与AGI的第一次亲密接触以及OpenAI的宣传策略。
短短几天,「世界模型」雏形相继诞生,AGI真的离我们不远了?Sora之后,LeCun首发AI视频预测架构V-JEPA,能够以人类的理解方式看世界。
简单粗暴的理解,就是语言能力足够强大之后,它带来的泛化能力直接可以学习图像视频数据和它体现出的模式,然后还可以直接用学习来的图像生成模型最能理解的方式,给这些利用了引擎等已有的强大而成熟的视频生成技术的视觉模型模块下指令,最终生成我们看到的逼真而强大的对物理世界体现出“理解”的视频。