成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架
8904点击    2025-11-18 10:06

CUDA 代码的性能对于当今的模型训练与推理至关重要,然而手动编写优化 CUDA Kernel 需要很高的知识门槛和时间成本。与此同时,近年来 LLM 在 Code 领域获得了诸多成功。这推动人们去探索如何利用 LLM 来编写优化 CUDA kernel。然而,现有的方法面临诸多问题,例如高昂的训练与推理成本,不良的 kernel 性能,以及缺乏硬件反馈导致的盲目探索。


那么对于使用 LLM 进行 CUDA 代码生成,我们能不能设计一个简单而有效的方法,使其能够低成本地生成可靠高效的 CUDA kernel?


明尼苏达大学的团队提出了一种新的方法——CudaForge。这是一种简单、高效且低成本的多智能体 CUDA Kernel 生成与优化工作流。该工作流受人类专家的实际开发流程启发,包含初始 Kernel 的编写、正确性测试、硬件反馈分析以及迭代改进等关键阶段。


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


  • 论文标题:CudaForge: An Agent Framework with Hardware Feedback for CUDA Kernel Optimization
  • 论文链接:https://arxiv.org/pdf/2511.01884
  • 代码地址: https://github.com/OptimAI-Lab/CudaForge


实验结果表明,CudaForge 在 KernelBench Levels 1-3 上取得了 SOTA 的结果,超越了现有的所有方法。值得注意的是,通过 CudaForge 生成一个经过优化的 Kernel 在单张 RTX6000 上仅需约 26.5 分钟,同时仅产生约 0.3 美元 的 API 调用成本!


CudaForge Workflow 介绍


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


正如人类专家所采用的开发方法,包括初始 Kernel 的编写、正确性测试、硬件反馈分析以及迭代改进,我们将 CudaForge 设计为如上所示的迭代式优化框架。


该框架包含两个相互独立的智能体: Coder 和 Judge


Coder 根据任务描述以及来自 Judge 的反馈生成候选 CUDA kernel;而 Judge 则利用 kernel 本身、硬件反馈以及运行时信息对每个候选进行评估。


具体而言,给定一个 CUDA kernel 生成任务,Coder 首先接收任务要求以及对应的 PyTorch 参考实现,然后生成一个初始的候选 kernel。该 kernel 将被编译并在测试用例上执行以验证其正确性。


如果测试失败,Judge 会检查运行时信息(例如编译错误、与 PyTorch 参考结果不一致的输出),并分析该错误 kernel 的问题所在。随后,Judge 会返回相应的纠错反馈(如缺少头文件等),以指导下一轮生成。当某个候选 kernel 通过了正确性测试后,Judge 会使用 NCU 工具对其进行性能剖析,获取 NCU 性能指标(如内存带宽、占用率、warp 效率等)。


结合 GPU 硬件规格,这些指标构成了用于识别主要性能瓶颈(如算力受限或带宽受限)的硬件反馈,Judge 会进一步基于此返回一个明确的优化建议(如使用 shared memory)给 Coder。


在下一轮中,Coder 会同时接收上一轮的 kernel、Judge 的反馈以及原始任务需求,并生成新的、经过修正或优化的 kernel。该过程最多重复 N 轮,最终我们会从所有正确的候选结果中选择效率最高的 kernel 作为最终输出。


在此,我们给出一个使用 CudaForge 进行 Kernel 优化的案例,并将其与 Kevin-32B 方法进行对比:


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


这一对比进一步凸显出使用硬件反馈对于 Cuda 代码优化的重要意义。


具体来说,CudaForge 通过以下三项关键设计显著提升了 CUDA kernel 的生成与优化能力: 


👉 双智能体分工协作: CudaForge 采用 Coder–Judge 双智能体架构,其中 Coder 专注于代码生成,Judge 负责评估代码并提供反馈,从而实现“认知负载”的有效分离。 


👉 迭代式优化流程: CudaForge 通过多轮迭代逐步纠错与提速,使得 Kernel 能在每一轮中持续被改进,特别是在复杂任务中能够获得更加稳定的优化效果。 


👉 显式引入硬件反馈: CudaForge 将 GPU 规格与 NCU 性能指标(如带宽、占用率、Warp 效率)纳入反馈,使 Judge 能精确定位瓶颈并提供可执行的优化指导


实验评估


我们在 KernelBench Levels 1-3 上评估了我们的模型,并与 Kevin-32B,OpenAI-o3 等模型进行了比较。


在 RTX 6000 上的 KernelBench Levels 1–3 主要结果:


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


在我们的主要实验中,我们默认将 OpenAI-o3 同时用作 Coder 与 Judge,并将最大迭代轮数设为 N = 10,以在性能提升与推理成本之间取得平衡。


在 KernelBench 上,CudaForge 达到了 97.6% 的正确率,平均加速比为 1.677×,Fast1 比例为 70.8%,并且实现了 1.107× 的中位数加速比与 1.592× 的 75 分位加速比。这些结果显著优于基础模型 OpenAI-o3 与一系列消融变体(包括 o3-self-refine、o3-correction、o3-optimization)。


与 Kevin-32B 在 H200 上的对比:


考虑到 Kevin-32B 是基于 H200 训练的 RL 模型,我们在 H200 上对比了 Kevin-32B 和 CudaForge。下图展示了 CudaForge 与 Kevin-32B 在 KernelBench 上的正确性与性能表现对比。虚线表示 CudaForge 在 Level 1 和 Level 2 上的平均水平。


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


尽管 CudaForge 不需要训练(training-free),它在 KernelBench Level 1–2 上的表现依然优于 Kevin-32B,并且在 Level 3 上也取得了极为出色的性能。


CudaForge 的 API 与计算时间成本分析


我们进一步分析了 CudaForge 的性能与其 API 调用成本和计算时间之间的关系,如图所示。随着 API 成本与计算时间的增加,CudaForge 的性能呈单调提升趋势。值得注意的是,即使在每个任务耗费不超过 0.15 美元和 10 分钟的情况下,CudaForge 也已经能够超越 Agentic 基线方法,这充分展示了其出色的性能-成本平衡能力。


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


基于 KernelBench,我们测评了 CudaForge 所需的时间和 API 成本,结果表明在 KernelBench Levels 1-3 所有任务上,CudaForge 每个任务仅需平均 0.3 美元的 API 成本,以及在单卡 RTX6000 上 26.5 分钟的运行时间!


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


消融实验


在不同 LLM 上实例化 CudaForge: 


为了验证 CudaForge 是否依赖某个特定基础模型,我们在实验中固定一方(Coder 或 Judge)为 OpenAI-o3(记作 O3),并将另一方替换为多种先进的大模型,包括 QwQ-32B、GPT-5、Claude-Sonnet-4、GPT-OSS-120B 等。


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


如表所示,所有组合都能够取得较高的正确率和良好的性能表现,并且在某些情况下甚至超过原始的 O3/O3 配置。


这一结果表明,CudaForge 并不依赖于某个特定的基础模型:其有效性主要来源于 Coder–Judge 的工作流机制,并且随着更强模型的出现,它可以直接受益并进一步提升性能。


在不同 GPU 架构上使用 CudaForge:


成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架


我们进一步在多种 GPU 架构上评估 CudaForge,包括 RTX 6000、RTX 4090、RTX 3090 和 A100,以考察其在不同硬件条件下的适用性。


实验结果(如表所示)显示,CudaForge 在所有测试 GPU 上均保持了高正确率和强性能表现,证明其具有良好的硬件通用性和稳定性。


总结


我们提出了 CudaForge,一个无需训练的多智能体 CUDA kernel 生成与优化框架。该框架模拟人类专家的迭代式工作流程,并显式地引入硬件反馈,以实现有针对性的 Kernel 优化,而非盲目搜索。 在 KernelBench 基准上,CudaForge 相较于现有方法取得了最高的正确率和显著的性能提升,同时在不同 GPU 架构和多种基础大模型上均表现出强鲁棒性与泛化性。


此外,CudaForge 的性能随着迭代轮数的增加能够进一步提升。 最后,得益于其低 API 开销与低时间成本,CudaForge 为自动化 CUDA Kernel 开发提供了一种高效、实用且可投入实际使用的解决方案。


文章来自于“机器之心”,作者 “张子健(共同第一作者),王嵘(共同第一作者),李世阳,罗越波,洪明毅,丁才文”。

AITNT-国内领先的一站式人工智能新闻资讯网站
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI代理

【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。

项目地址:https://github.com/browser-use/browser-use


2
AI工作流

【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!

项目地址:https://github.com/coze-dev/coze-studio


【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。

项目地址:https://github.com/n8n-io/n8n

在线使用:https://n8n.io/(付费


【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。

项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file



【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。

项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file

在线使用:https://vectorvein.ai/付费

3
智能体

【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。

项目地址:https://github.com/Significant-Gravitas/AutoGPT


【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。

项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md