AI资讯新闻榜单内容搜索-专家模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 专家模型
LeCun八年前神预言,大模型路线再颠覆?OpenAI宣告:强化学习取得稳定性突破

LeCun八年前神预言,大模型路线再颠覆?OpenAI宣告:强化学习取得稳定性突破

LeCun八年前神预言,大模型路线再颠覆?OpenAI宣告:强化学习取得稳定性突破

只需几十个样本即可训练专家模型,强化微调RLF能掀起强化学习热潮吗?具体技术实现尚不清楚,AI2此前开源的RLVR或许在技术思路上存在相似之处。

来自主题: AI资讯
7236 点击    2024-12-23 15:58
OpenAI的强化微调:RL+Science 创造新神还是灭霸?

OpenAI的强化微调:RL+Science 创造新神还是灭霸?

OpenAI的强化微调:RL+Science 创造新神还是灭霸?

2024 年 12 月 6 号加州时间上午 11 点,OpenAI 发布了新的 Reinforcement Finetuning 方法,用于构造专家模型。对于特定领域的决策问题,比如医疗诊断、罕见病诊断等等,只需要上传几十到几千条训练案例,就可以通过微调来找到最有的决策。

来自主题: AI技术研报
7007 点击    2024-12-08 14:19
OpenAI强化微调登场:几十条数据o1-mini反超o1暴涨80%,奥特曼:今年最大惊喜

OpenAI强化微调登场:几十条数据o1-mini反超o1暴涨80%,奥特曼:今年最大惊喜

OpenAI强化微调登场:几十条数据o1-mini反超o1暴涨80%,奥特曼:今年最大惊喜

OpenAI“双12”直播第二天,依旧简短精悍,主题:新功能强化微调(Reinforcement Fine-Tuning),使用极少训练数据即在特定领域轻松地创建专家模型。少到什么程度呢?最低几十个例子就可以。

来自主题: AI资讯
9463 点击    2024-12-07 09:26
专家模型不要专家并行!微软开源MoE新路径

专家模型不要专家并行!微软开源MoE新路径

专家模型不要专家并行!微软开源MoE新路径

近日,来自微软的研究人员开源了使用全新方法训练的MoE大模型,不走寻常路,且编码和数学表现出色。

来自主题: AI技术研报
6346 点击    2024-11-11 15:15
腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

腾讯开源“最大”大模型:如果你也相信MoE,那咱们就是好朋友

一个是开源,一个是MoE (混合专家模型)。 开源好理解,在大模型火热之后,加入战局的腾讯已经按照它自己的节奏开源了一系列模型,包括混元文生图模型等。

来自主题: AI资讯
3841 点击    2024-11-06 14:49
MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

MoE再下一城!港大提出AnyGraph:首次开启「图大模型」Scaling Law之路

AnyGraph聚焦于解决图数据的核心难题,跨越多种场景、特征和数据集进行预训练。其采用混合专家模型和特征统一方法处理结构和特征异质性,通过轻量化路由机制和高效设计提升快速适应能力,且在泛化能力上符合Scaling Law。

来自主题: AI技术研报
8308 点击    2024-09-02 16:35
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近 ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
9688 点击    2024-08-25 11:48
从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

从ACL 2024录用论文看混合专家模型(MoE)最新研究进展

最近ACL 2024 论文放榜,扫了下,SMoE(稀疏混合专家)的论文不算多,这里就仔细梳理一下,包括动机、方法、有趣的发现,方便大家不看论文也能了解的七七八八,剩下只需要感兴趣再看就好。

来自主题: AI技术研报
3061 点击    2024-08-15 10:17
8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

本文研究发现大语言模型在持续预训练过程中出现目标领域性能先下降再上升的现象。

来自主题: AI技术研报
8798 点击    2024-07-02 11:27