
华为又开源了个大的:超大规模MoE推理秘籍
华为又开源了个大的:超大规模MoE推理秘籍超大规模MoE模型(如DeepSeek),到底该怎么推理才能做到又快又稳。现在,这个问题似乎已经有了标准答案——华为一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给开源了!
超大规模MoE模型(如DeepSeek),到底该怎么推理才能做到又快又稳。现在,这个问题似乎已经有了标准答案——华为一个新项目,直接把推理超大规模MoE背后的架构、技术和代码,统统给开源了!
最近,看到各大厂商,在不断地将自己的AI大模型进行开源。华为宣布开源:盘古7B稠密和72B混合专家模型。
刚刚,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型(参见机器之心报道:华为盘古首次露出,昇腾原生72B MoE架构,SuperCLUE千亿内模型并列国内第一 )和基于昇腾的模型推理技术。
今年,AI大厂采购GPU的投入又双叒疯狂加码——马斯克xAI打算把自家的10万卡超算扩增10倍,Meta也计划投资100亿建设一个130万卡规模的数据中心……GPU的数量,已经成为了互联网企业AI实力的直接代表。
聚光灯下,思想的交锋激荡出智慧的火花。在前几日刚刚落幕的华为开发者大会(HDC 2025)期间,在华为云AI创业生态高峰论坛活动上,一场围绕“AI 2.0时代的创业:技术愿景与商业实践的平衡”展开的深度辩论,吸引了众多与会者的目光,也精准切中了当下AI创业浪潮中的核心脉搏。
「卖铲人」华为给具身智能出了另一种解法。
6月20日-22日,华为开发者大会2025(HDC 2025)于东莞举办,正式发布鸿蒙HarmonyOS 6操作系统及多项创新技术,来自全球各地的开发者、行业专家和合作伙伴齐聚现场,其中不乏AI+生物、医疗领域企业。
一个大模型有了火星图片,能做什么?
在信息爆炸的时代,推荐系统已成为我们获取资讯、商品和服务的核心入口。无论是电商平台的 “猜你喜欢”,还是内容应用的信息流,背后都离不开推荐算法的默默耕耘
华为正将「根深」的自研能力,转化为赋能千行万业智能化升级的「叶茂」。