谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏
7259点击    2025-11-27 10:11

前些天,一项「AI 传心术」的研究在技术圈炸开了锅:机器不用说话,直接抛过去一堆 Cache 就能交流。让人们直观感受到了「去语言化」的高效,也让机器之心那条相关推文狂揽 85 万浏览量。参阅报道《用「传心术」替代「对话」,清华大学联合无问芯穹、港中文等机构提出 Cache-to-Cache 模型通信新范式》


谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏


事实上,这还不是近期唯一一项此类研究,NeurIPS 2025 Spotlight 论文《Thought Communication in Multiagent Collaboration》提出了 Thought Communication(思维沟通)概念,让智能体在内部层面传递潜在思维(latent thoughts),实现类似心灵感应的合作。参阅《让大模型学会「心灵感应」:基于思维沟通的多智能体合作范式来了》


如果说前两项研究是在让 AI 摆脱「语言」的束缚,那么今天这项研究则更进一步:它试图让 AI 摆脱对「数据」的依赖。


来自麻省理工学院 Tommi Jaakkola 和纽约大学谢赛宁两个团队的一项联合研究又提出了一种新方法,无需数据,仅从先验分布中采样即可实现 flow map 蒸馏,并且取得了非常出色的性能表现。


这听起来简直像是武侠小说里的「闭关修炼」:不看任何武林秘籍(数据集),仅凭内功心法(先验分布)和宗师的指点(教师模型),就在极短时间内练成了绝世武功。


这篇论文的共一作者为 MIT 四年级博士生 Shangyuan Tong 和纽约大学一年级博士生 Nanye Ma。它不仅刷新了 ImageNet 的生成质量纪录(1-NFE 下 FID 达到 1.45),更重要的是,它向我们展示了一个隐约可见的未来:摆脱对显性数据(如文本、图像)的依赖,转而挖掘和利用模型内部表征或先验分布,正在崛起成为 AI 研究的一个重要新范式。


谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏


  • 论文标题:Flow Map Distillation Without Data
  • 论文地址:https://arxiv.org/abs/2511.19428v1
  • 项目页面:https://data-free-flow-distill.github.io/


问题是什么?


我们知道,扩散模型和流模型已经彻底改变了高保真合成领域。


然而,它们需要对常微分方程(ODE)进行数值积分,而这会导致严重的计算瓶颈。


为了解决这一延迟问题,flow map 提供了一种有原理依据的加速途径。它可直接学习 ODE 的解算子,能够在生成轨迹上进行大幅度的「跳跃」,从而绕过繁琐的迭代求解过程。


虽然 flow map 可以从头开始训练,但还有一种更灵活的方案:蒸馏强大的预训练「教师模型」。


这种模块化策略可以实现对最先进的模型的压缩。


该团队观察到,目前主流且最成功的 flow map 蒸馏方法通常是基于数据的,即依赖外部数据集的样本来训练「学生模型」。


但他们认为,这种被默许的依赖关系引入了一个根本性的风险:教师-数据不匹配


如图 1 所示,静态数据集可能无法完整或准确地表征教师模型真实的生成能力。


谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏


这种差异在实际应用中屡见不鲜:例如,当教师模型的泛化能力超出了其原始训练集时;当后期微调导致教师模型的分布偏离了原始数据时;又或者当教师模型的私有训练数据根本无法获取时。在这些情境下,如果强行要求学生模型在不匹配的数据集上拟合教师模型,将从根本上限制其潜力。


谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏


通俗来说,你可以把「教师模型」想象成一位不仅画技高超,还通过后期进修(微调)掌握了独门绝技的艺术大师。而我们手中的「数据集」就好比是他多年前出版的一本旧画册,甚至是市面上随便找来的一本普通参考书。


所谓的「教师-数据不匹配」,就是指这位大师现在的水平和风格(教师模型的真实生成分布)已经远远超出了那本旧画册的范畴(静态数据集)。如果强行让徒弟(学生模型)死盯着这本过时或甚至不对版的画册去学,而不是直接去观察大师现在是如何下笔的,那么徒弟不仅学不到大师现在的真本事,甚至会被画册里的错误误导,从而从根本上限制了其潜力。


解决方案它来了!


幸运的是,这种不匹配并非不可避免。


该团队敏锐地观察到,尽管教师模型的生成路径可能在中间过程中偏离静态数据集,但根据定义,它们在起点处始终锚定于先验分布(Prior Distribution)。


如图 1 所示,先验分布是唯一能保证对齐的基点:它既是教师模型生成的共同起点,也是所有加噪过程的终点。


这一发现带来了一个问题:对数据的普遍依赖真的是必须的吗?


基于此,该团队提出了一种范式转变:可以通过仅从先验分布进行采样,构建一种稳健的、无需数据的替代方案,从而在设计上(by construction)彻底规避「教师-数据不匹配」的风险。


为了践行这一理念,他们引入了一个有原理依据的「预测-校正」(Predictor-Corrector)框架,旨在纯粹从先验分布出发来追踪教师模型的动态。


  • 预测阶段(Prediction):该方法首先获取一个先验样本和一个标量积分区间,预测流应当「跳跃」到的位置。团队从理论上证明,当模型的生成速度(Generating Velocity,即模型沿自身预测路径行进的速率)与教师模型的瞬时速度完全一致时,即可达到最优状态 。这使得学生模型宛如一个自主的 ODE 求解器,完全基于自身的演化预测来驾驭教师模型的向量场。


  • 校正阶段(Correction):然而,正如所有的自回归数值求解器一样,这种自我引用的预测过程容易导致误差累积,使轨迹逐渐偏离 。为缓解这一问题,团队提出了一种基于分布匹配的校正机制:将模型的加噪速度(Noising Velocity,即由学生模型生成的分布所隐含的加噪流边缘速度)强制拉回,使其与教师模型重新对齐。这一机制充当了稳定器的角色,确保了生成的边缘分布始终忠实于教师模型。


他们将该方法命名为 FreeFlow,以强调其核心特征:一个完全无需数据的 flow map 蒸馏框架


实验证明有效性


该团队在 ImageNet 上进行了广泛的实验,验证了该方法的有效性。


通过从 SiT-XL/2+REPA 教师模型进行蒸馏,FreeFlow 刷新了最佳成绩:在仅需 1 次函数评估(1-NFE)的情况下,其在 256×256 分辨率下达到了惊人的 1.45 FID,在 512×512 分辨率下达到了 1.49 FID,大幅超越了所有基于数据的基准模型。


谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏


谢赛宁与Jaakkola团队重磅研究:无数据Flow Map蒸馏


此外,利用其作为快速且一致的代理模型(proxy)的特性,FreeFlow 实现了高效的「推理时扩展」,使得在单步操作中搜索最优噪声样本成为可能。


最终,他们的研究结果证实,外部数据集并非高保真 flow map 蒸馏的必要条件:可以在完全避免「教师-数据不匹配」风险的同时,不牺牲任何性能。


他们表示,这项工作为生成模型的加速提供了更加稳固的基石,并有望推动该领域向「无数据」范式转变。


看起来,AI 正在从「向外挖掘数据」的时代,跨入「向内挖掘潜能」的新纪元。方法详情和实验细节请参阅原论文。


文章来自于“机器之心”,作者 “Panda”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md

3
RAG

【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。

项目地址:https://github.com/microsoft/graphrag

【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。

项目地址:https://github.com/langgenius/dify


【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。

项目地址:https://github.com/infiniflow/ragflow/tree/main


【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目

项目地址:https://github.com/phidatahq/phidata


【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。

项目地址:https://github.com/TaskingAI/TaskingAI

4
微调

【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。

项目地址:https://github.com/InternLM/xtuner