AI资讯新闻榜单内容搜索-专家模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 专家模型
OpenAI强化微调登场:几十条数据o1-mini反超o1暴涨80%,奥特曼:今年最大惊喜

OpenAI强化微调登场:几十条数据o1-mini反超o1暴涨80%,奥特曼:今年最大惊喜

OpenAI强化微调登场:几十条数据o1-mini反超o1暴涨80%,奥特曼:今年最大惊喜

OpenAI“双12”直播第二天,依旧简短精悍,主题:新功能强化微调(Reinforcement Fine-Tuning),使用极少训练数据即在特定领域轻松地创建专家模型。少到什么程度呢?最低几十个例子就可以。

来自主题: AI资讯
9345 点击    2024-12-07 09:26
专家模型不要专家并行!微软开源MoE新路径

专家模型不要专家并行!微软开源MoE新路径

专家模型不要专家并行!微软开源MoE新路径

近日,来自微软的研究人员开源了使用全新方法训练的MoE大模型,不走寻常路,且编码和数学表现出色。

来自主题: AI技术研报
6239 点击    2024-11-11 15:15
腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

一个是开源,一个是MoE (混合专家模型)。 开源好理解,在大模型火热之后,加入战局的腾讯已经按照它自己的节奏开源了一系列模型,包括混元文生图模型等。

来自主题: AI资讯
3712 点击    2024-11-06 14:49
MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结构和特征异质性,通过轻量化路由机制和高效设计提升快速适应能力,且在泛化能力上符合Scaling Law。

来自主题: AI技术研报
8193 点击    2024-09-02 16:35
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近 ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
9514 点击    2024-08-25 11:48
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
2859 点击    2024-08-15 10:17
8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

本文研究发现大语言模型在持续预训练过程中出现目标领域性能先下降再上升的现象。

来自主题: AI技术研报
8696 点击    2024-07-02 11:27
用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM

用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM

用MoE横扫99个子任务!浙大等提出全新通用机器人策略GeRM

多任务机器人学习在应对多样化和复杂情景方面具有重要意义。然而,当前的方法受到性能问题和收集训练数据集的困难的限制

来自主题: AI技术研报
6028 点击    2024-04-17 18:16
马斯克为什么一定要开源AI?

马斯克为什么一定要开源AI?

马斯克为什么一定要开源AI?

拒绝赛博朋克,千呼万唤始出来。为了兑现牛逼,马斯克最近下了血本:Grok-1宣布开源。据官方信息,这是一个参数高达3140亿的混合专家模型,是目前所有开源模型中规模最大的。

来自主题: AI资讯
5095 点击    2024-03-25 12:06
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

来自UCLA的华人团队提出一种全新的LLM自我对弈系统,能够让LLM自我合成数据,自我微调提升性能,甚至超过了用GPT-4作为专家模型指导的效果。

来自主题: AI技术研报
6362 点击    2024-02-02 17:27