Linear-MoE:线性注意力遇上混合专家的开源实践 Linear-MoE:线性注意力遇上混合专家的开源实践 关键词: Linear-MoE,模型训练,AI,人工智能 来自上海人工智能实验室团队的最新成果 Linear-MoE,首次系统性地实现了线性序列建模与 MoE 的高效结合,并开源了完整的技术框架,包括 Modeling 和 Training 两大部分,并支持层间混合架构。为下一代基础模型架构的研发提供了有价值的工具和经验。 来自主题: AI技术研报 7313 点击 2025-05-30 12:03