
Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型
Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型上海人工智能实验室等团队提出Lumina-mGPT 2.0 —— 一款独立的、仅使用解码器的自回归模型,统一了包括文生图、图像对生成、主体驱动生成、多轮图像编辑、可控生成和密集预测在内的广泛任务。
上海人工智能实验室等团队提出Lumina-mGPT 2.0 —— 一款独立的、仅使用解码器的自回归模型,统一了包括文生图、图像对生成、主体驱动生成、多轮图像编辑、可控生成和密集预测在内的广泛任务。
近年来,文生图模型(Text-to-Image Models)飞速发展,从早期的 GAN 架构到如今的扩散和自回归模型,生成图像的质量和细节表现力实现了跨越式提升。这些模型大大降低了高质量图像创作的门槛,为设计、教育、艺术创作等领域带来了前所未有的便利。
上上周我们一起测试了六款视频Agent, Agent们手里有一堆音频、视频、剪辑、生图等工具,由他们决定调用顺序成片
通义模型家族,刚刚又双叒开源了,这次是Qwen-Image——一个200亿参数、采用MMDiT架构的图像生成模型。 这也是通义千问系列中首个图像生成基础模型。
AI生图,但是没有AI味,可能么? 一款全新、可编辑、照片级的AI生图模型FLUX.1 Krea [dev]现已发布,可在Krea Edit上免费试用。
你有没有想过,为什么大部分人在谈论AI的时候还在纠结ChatGPT能写多少字、回答多少问题,而有些人已经在用AI创造出让你分不清真假的视频内容?当全世界还在为文本生成AI争论不休时,一家名为fal的公司却在悄然重塑整个内容创作的基础设施。
每次和我妈打电话,她都会不可避免地提一嘴:「少吃点外卖。」 以前我觉得这是典型中年父母的唠叨,不太了解年轻人的生活方式。现在我懂了,她才是早就看穿一切的预言家。
听说了吗,GPT-5这两天那叫一个疯狂造势,奥特曼怕不是真有些急了(doge)。
AMD携手Stability AI宣布推出世界首款适用于Stable Diffusion 3.0 Medium的B16 NPU模型。该模型可直接运行于AMD XDNA 2 NPU之上,能够显著提升图像生成质量。新模型作为Amuse 3.1平台的组件之一亮相,于今天一起发布。
随着 OpenAI 推出 GPT-4o 的图像生成功能,AI 生图能力被拉上了一个新的高度,但你有没有想过,这光鲜亮丽的背后也隐藏着严峻的安全挑战:如何区分生成图像和真实图像?