AI资讯新闻榜单内容搜索-Moe

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Moe
Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

Meta探索大模型记忆层,扩展至1280亿个参数,优于MoE

预训练语言模型通常在其参数中编码大量信息,并且随着规模的增加,它们可以更准确地回忆和使用这些信息。

来自主题: AI技术研报
7002 点击    2025-01-04 14:14
超越Claude 3.5紧追o1!DeepSeek-V3-Base开源,技术文档PDF全公开

超越Claude 3.5紧追o1!DeepSeek-V3-Base开源,技术文档PDF全公开

超越Claude 3.5紧追o1!DeepSeek-V3-Base开源,技术文档PDF全公开

在 2024 年底,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了最新的混合专家(MoE)语言模型 DeepSeek-V3-Base。虽然,目前没有放出详细的模型卡,但官方开源了V3的技术文档PDF。

来自主题: AI资讯
7397 点击    2024-12-27 14:35
久等了,DeepSeek开源视觉模型DeepSeek-VL2来了

久等了,DeepSeek开源视觉模型DeepSeek-VL2来了

久等了,DeepSeek开源视觉模型DeepSeek-VL2来了

阔别九月,大家期待的 DeepSeek-VL2 终于来了!DeepSeek-MoE 架构配合动态切图,视觉能力再升级。从视觉定位到梗图解析,从 OCR 到故事生成,从 3B、16B 再到 27B,DeepSeek-VL2 正式开源。

来自主题: AI技术研报
10209 点击    2024-12-14 10:17
Grok祭出首款生图模型Aurora!两位95后华人立大功,耗时6月自研MoE

Grok祭出首款生图模型Aurora!两位95后华人立大功,耗时6月自研MoE

Grok祭出首款生图模型Aurora!两位95后华人立大功,耗时6月自研MoE

消失一天后的Aurora,正式上线了。一大早,马斯克官宣了Grok集成了自研图像新模型Aurora,MoE架构自回归模型,直接将生成编辑能力一统。在人物肖像生成上,已经逼真到肉眼无法辨别。

来自主题: AI技术研报
5220 点击    2024-12-10 16:22
猎户星空发布MoE大模型,推出AI数据宝AirDS

猎户星空发布MoE大模型,推出AI数据宝AirDS

猎户星空发布MoE大模型,推出AI数据宝AirDS

11月27日,猎户星空联合聚云科技举办了题为《Data Ready for Al,MoE大模型发布暨商业闭环分享》媒体见面会。猎户星空正式发布了自主研发的Orion-MoE 8×7B大模型,并携手聚云科技推出了基于该大模型的数据服务—AI数据宝AirDS(AI-Ready Data Service)。

来自主题: AI资讯
8199 点击    2024-11-28 10:12
专家模型不要专家并行!微软开源MoE新路径

专家模型不要专家并行!微软开源MoE新路径

专家模型不要专家并行!微软开源MoE新路径

近日,来自微软的研究人员开源了使用全新方法训练的MoE大模型,不走寻常路,且编码和数学表现出色。

来自主题: AI技术研报
6240 点击    2024-11-11 15:15
字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%

字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%

字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%

字节跳动豆包大模型团队于近日提出超连接(Hyper-Connections),一种简单有效的残差连接替代方案。面向残差连接的主要变体的局限问题,超连接可通过动态调整不同层之间的连接权重,解决梯度消失和表示崩溃(Representation Collapse)之间的权衡困境。在 Dense 模型和 MoE 模型预训练中,超连接方案展示出显著的性能提升效果,使收敛速度最高可加速 80%。

来自主题: AI技术研报
4400 点击    2024-11-07 17:41
腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

一个是开源,一个是MoE (混合专家模型)。 开源好理解,在大模型火热之后,加入战局的腾讯已经按照它自己的节奏开源了一系列模型,包括混元文生图模型等。

来自主题: AI资讯
3715 点击    2024-11-06 14:49
清华团队革新MoE架构!像搭积木一样构建大模型,提出新型类脑稀疏模块化架构

清华团队革新MoE架构!像搭积木一样构建大模型,提出新型类脑稀疏模块化架构

清华团队革新MoE架构!像搭积木一样构建大模型,提出新型类脑稀疏模块化架构

探索更高效的模型架构, MoE是最具代表性的方向之一。 MoE架构的主要优势是利用稀疏激活的性质,将大模型拆解成若干功能模块,每次计算仅激活其中一小部分,而保持其余模块不被使用,从而大大降低了模型的计算与学习成本,能够在同等计算量的情况下产生性能优势。

来自主题: AI技术研报
3339 点击    2024-11-01 17:11
新视角设计下一代时序基础模型,Salesforce推出Moirai-MoE

新视角设计下一代时序基础模型,Salesforce推出Moirai-MoE

新视角设计下一代时序基础模型,Salesforce推出Moirai-MoE

自去年底以来,时序预测领域正在经历重大转型,从传统的「单一数据集训练单一模型」的模式逐步转向「通用预测基础模型」。

来自主题: AI技术研报
3588 点击    2024-10-31 15:11