
无需百卡集群!港科等开源LightGen: 极低成本文生图方案媲美SOTA模型
无需百卡集群!港科等开源LightGen: 极低成本文生图方案媲美SOTA模型文本到图像(Text-to-Image, T2I)生成任务近年来取得了飞速进展,其中以扩散模型(如 Stable Diffusion、DiT 等)和自回归(AR)模型为代表的方法取得了显著成果。然而,这些主流的生成模型通常依赖于超大规模的数据集和巨大的参数量,导致计算成本高昂、落地困难,难以高效地应用于实际生产环境。
文本到图像(Text-to-Image, T2I)生成任务近年来取得了飞速进展,其中以扩散模型(如 Stable Diffusion、DiT 等)和自回归(AR)模型为代表的方法取得了显著成果。然而,这些主流的生成模型通常依赖于超大规模的数据集和巨大的参数量,导致计算成本高昂、落地困难,难以高效地应用于实际生产环境。
Manus居然成功火到国外了,内销转出口了?今天开始,在X和Reddit上的外国网友中,Manus的讨论声量开始变大了!拿到邀请码的歪果网友实测后赞叹:Manus太好用了。而各种开源复现项目也如雨后春笋一般冒出,人气持续爆棚。
Intangible,现已获得 400 万美元的种子资金支持,提供了一款 AI 驱动的创意工具,让用户通过文本提示创建 3D 世界概念,助力跨行业创意专业人士。a16z Speedrun、Crosslink Capital 和几位天使投资者领投了本轮融资。
现有的可控Diffusion Transformer方法,虽然在推进文本到图像和视频生成方面取得了显著进展,但也带来了大量的参数和计算开销。
一张图、一句提示词,万物都能乱入你随手拍的视频。
针对视频生成中的运动一致性难题,Meta GenAI团队提出了一个全新框架VideoJAM。VideoJAM基于主流的DiT路线,但和Sora等纯DiT模型相比,动态效果直接拉满:
苹果最新论文揭露,或许它们看起来不会像机器人,或许它们将无处不在!苹果放出来一个台灯机器人以做展示,火遍reddit、X等平台。
现在,要想往视频里毫无违和感地添加任何东西,只需一张图就够了。
自Perplexity官宣引入广告后,AI搜索再次成为关注焦点。而我们国内创业团队这边,也传来了新消息——Hika AI,一个仅由5人打造的AI搜索,上线不久竟能和国外当红顶流同台竞技了?!
由无问芯穹与上海交通大学联合研究团队提出的视频生成软硬一体加速器,首次实现通过差分近似和自适应数据流解决 VDiT 生成速度缓慢瓶颈,推理速度相比 A100 提升高达 16.44 倍。