
AI开源社区来了国家队!华为百度第一时间加入
AI开源社区来了国家队!华为百度第一时间加入央企通信巨头,牵头搞起了一个开源社区?
来自主题: AI资讯
8431 点击 2025-05-09 12:02
央企通信巨头,牵头搞起了一个开源社区?
现在,跑准万亿参数的大模型,可以彻底跟英伟达Say Goodbye了。
Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。
英伟达H20也不能用了。中国大模型还能好吗?
密集模型的推理能力也能和DeepSeek-R1掰手腕了?
一切为了「多终端一致体验」和「用户数据闭环」。
终于,华为盘古大模型系列上新了,而且是昇腾原生的通用千亿级语言大模型。我们知道,如今各大科技公司纷纷发布百亿、千亿级模型。但这些大部分模型训练主要依赖英伟达的 GPU。
用AI指导芯片设计,中科大王杰教授团队、华为诺亚实验室、天津大学提出全新芯片宏单元布局优化方法LaMPlace!
芯片设计是现代科技的核心,逻辑优化(Logic Optimization, LO)作为芯片设计流程中的关键环节,其效率直接影响着芯片设计的整体性能。
推荐大模型也可生成式,并且首次在国产昇腾NPU上成功部署!