AI资讯新闻榜单内容搜索-华为

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 华为
突发,美商务部叫停「AI扩散规则」!但增加3点针对中国AI芯片政策,英伟达获利市值再破3万亿

突发,美商务部叫停「AI扩散规则」!但增加3点针对中国AI芯片政策,英伟达获利市值再破3万亿

突发,美商务部叫停「AI扩散规则」!但增加3点针对中国AI芯片政策,英伟达获利市值再破3万亿

昨晚,美商务部正式废止《AI扩散规则》,同时加码全球半导体出口管制,精准打击中国AI发展。发布指导意见,在世界任何地方使用华为AI芯片,都违反美国出口管制。 警告公众当美国AI芯片被用于训练/推理中国AI模型时的潜在后果。向美国公司发布关于如何保护供应链免受转移策略影响的指导意见。

来自主题: AI资讯
8378 点击    2025-05-14 09:58
华为哈勃,出手具身智能

华为哈勃,出手具身智能

华为哈勃,出手具身智能

华为哈勃首次投资机器人公司千寻智能,5月将发新Demo。

来自主题: AI资讯
6851 点击    2025-05-09 12:19
Bye,英伟达!华为NPU,跑出了准万亿参数大模型

Bye,英伟达!华为NPU,跑出了准万亿参数大模型

Bye,英伟达!华为NPU,跑出了准万亿参数大模型

现在,跑准万亿参数的大模型,可以彻底跟英伟达Say Goodbye了。

来自主题: AI技术研报
7223 点击    2025-05-08 14:36
ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

ICML 2025 Spotlight|华为诺亚提出端侧大模型新架构MoLE,内存搬运代价降低1000倍

Mixture-of-Experts(MoE)在推理时仅激活每个 token 所需的一小部分专家,凭借其稀疏激活的特点,已成为当前 LLM 中的主流架构。然而,MoE 虽然显著降低了推理时的计算量,但整体参数规模依然大于同等性能的 Dense 模型,因此在显存资源极为受限的端侧部署场景中,仍然面临较大挑战。

来自主题: AI技术研报
6020 点击    2025-05-07 09:30
不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

终于,华为盘古大模型系列上新了,而且是昇腾原生的通用千亿级语言大模型。我们知道,如今各大科技公司纷纷发布百亿、千亿级模型。但这些大部分模型训练主要依赖英伟达的 GPU。

来自主题: AI技术研报
6398 点击    2025-04-13 16:12