AI资讯新闻榜单内容搜索-Moe

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Moe
下一代MoE架构登场!伴生专家系统用“大小核”重写MoE规则

下一代MoE架构登场!伴生专家系统用“大小核”重写MoE规则

下一代MoE架构登场!伴生专家系统用“大小核”重写MoE规则

一句话概括,传统MoE就像公司派固定人数团队,Grove MoE则像智能调度系统,小项目派少数人,大项目集中火力,效率与效果兼得。

来自主题: AI资讯
6085 点击    2025-08-18 16:59
Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制

稀疏激活的混合专家模型(MoE)通过动态路由和稀疏激活机制,极大提升了大语言模型(LLM)的学习能力,展现出显著的潜力。基于这一架构,涌现出了如 DeepSeek、Qwen 等先进的 MoE LLM。

来自主题: AI技术研报
5555 点击    2025-08-12 11:07
OpenAI突然开源1200亿参数MoE模型!专家连夜解码发现:Hidden Size=2880藏惊天陷阱,第3条让GPU厂商集体崩溃!

OpenAI突然开源1200亿参数MoE模型!专家连夜解码发现:Hidden Size=2880藏惊天陷阱,第3条让GPU厂商集体崩溃!

OpenAI突然开源1200亿参数MoE模型!专家连夜解码发现:Hidden Size=2880藏惊天陷阱,第3条让GPU厂商集体崩溃!

gpt5来临前夕,oai疑似发布的小模型gpt-oss 120B的架构图已经满天飞了。难得openai要open一次,自然调动了我的全部注意力机制。本来以为oai还要掏出gpt2意思意思,结果看到了一个120B moe。欸?!

来自主题: AI资讯
7781 点击    2025-08-04 15:03
万亿参数狂欢!一文刷爆2025年七大顶流大模型架构

万亿参数狂欢!一文刷爆2025年七大顶流大模型架构

万亿参数狂欢!一文刷爆2025年七大顶流大模型架构

从GPT-2到DeepSeek-V3和Kimi K2,架构看似未变,却藏着哪些微妙升级?本文深入剖析2025年顶级开源模型的创新技术,揭示滑动窗口注意力、MoE和NoPE如何重塑效率与性能。

来自主题: AI技术研报
6256 点击    2025-08-04 12:05
Step-3 发布:包括发布会上没说的,都在这了

Step-3 发布:包括发布会上没说的,都在这了

Step-3 发布:包括发布会上没说的,都在这了

今天下午,阶跃星辰在 WAIC 2025 开幕前夕发布新一代基础大模型 Step 3,并宣布将在 7 月 31 日面向全球企业和开发者开源。MoE 架构,321B 总参,38B 激活

来自主题: AI资讯
8100 点击    2025-07-25 23:25
Kimi K2模型API性能优化进行时:月之暗面积极应对高负载挑战

Kimi K2模型API性能优化进行时:月之暗面积极应对高负载挑战

Kimi K2模型API性能优化进行时:月之暗面积极应对高负载挑战

近日,月之暗面(Moonshot AI)正式发布了其万亿参数开源大模型Kimi K2,这一具有里程碑意义的AI模型凭借其创新的MoE架构和强大的Agentic能力迅速获得全球开发者关注。然而,随着用户量激增,部分开发者开始反映其API服务响应速度不尽如人意。面对这一情况,月之暗面于7月15日迅速作出官方回应,坦诚当前服务延迟问题,并详细说明了优化方案。

来自主题: AI资讯
7018 点击    2025-07-21 12:18
AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起

AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起

AI圈水太深:OpenAI保密、Meta作弊!国产MoE却异军突起

从GPT-2到Llama 4,大模型这几年到底「胖」了多少?从百亿级密集参数到稀疏MoE架构,从闭源霸权到开源反击,Meta、OpenAI、Mistral、DeepSeek……群雄割据,谁能称王?

来自主题: AI技术研报
6320 点击    2025-07-16 16:18
独家:Kimi悄悄发布了全球首个参数量达到1万亿的K2模型

独家:Kimi悄悄发布了全球首个参数量达到1万亿的K2模型

独家:Kimi悄悄发布了全球首个参数量达到1万亿的K2模型

结果点进去一看,我人直接傻了——这家伙用的竟然是 kimi-k2-0711-preview 模型!这个K2模型的简直离谱到家了: 业界第一个说自己是1万亿参数的模型,这规模直接吓人 MoE架构 + 32B激活参数

来自主题: AI资讯
8054 点击    2025-07-11 18:38