AI资讯新闻榜单内容搜索-华为

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 华为
Bye,英伟达!华为NPU,跑出了准万亿参数大模型

Bye,英伟达!华为NPU,跑出了准万亿参数大模型

Bye,英伟达!华为NPU,跑出了准万亿参数大模型

现在,跑准万亿参数的大模型,可以彻底跟英伟达Say Goodbye了。

来自主题: AI技术研报
7087 点击    2025-05-08 14:36
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
5893 点击    2025-05-07 09:30
不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

终于,华为盘古大模型系列上新了,而且是昇腾原生的通用千亿级语言大模型。我们知道,如今各大科技公司纷纷发布百亿、千亿级模型。但这些大部分模型训练主要依赖英伟达的 GPU。

来自主题: AI技术研报
6238 点击    2025-04-13 16:12
芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计效率提升2.5倍,中科大华为诺亚联合,用GNN+蒙特卡洛树搜索优化电路设计 | ICLR2025

芯片设计是现代科技的核心,逻辑优化(Logic Optimization, LO)作为芯片设计流程中的关键环节,其效率直接影响着芯片设计的整体性能。

来自主题: AI技术研报
2764 点击    2025-04-10 11:03