扩散语言模型九倍推理加速!上海交大:KV Cache并非自回归模型的专属技巧 扩散语言模型九倍推理加速!上海交大:KV Cache并非自回归模型的专属技巧 关键词: AI,模型训练,dLLM-Cache,人工智能 首个用于加速扩散式大语言模型(diffusion-based Large Language Models, 简称 dLLMs)推理过程的免训练方法。 来自主题: AI技术研报 9086 点击 2025-05-27 16:22