AI资讯新闻榜单内容搜索-监督微调

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 监督微调
DeepSeek开源o1击毙OpenAI,强化学习惊现「啊哈」时刻!网友:AGI来了

DeepSeek开源o1击毙OpenAI,强化学习惊现「啊哈」时刻!网友:AGI来了

DeepSeek开源o1击毙OpenAI,强化学习惊现「啊哈」时刻!网友:AGI来了

中国版o1刷屏全网。DeepSeek R1成为世界首个能与o1比肩的开源模型,成功秘诀竟是强化学习,不用监督微调。AI大佬们一致认为,这就是AlphaGo时刻。

来自主题: AI资讯
8085 点击    2025-01-21 12:59
LoRA数学编程任务不敌全量微调 | 哥大&Databricks新研究

LoRA数学编程任务不敌全量微调 | 哥大&Databricks新研究

LoRA数学编程任务不敌全量微调 | 哥大&Databricks新研究

大数据巨头Databricks与哥伦比亚大学最新研究发现,在数学和编程任务上,LoRA干不过全量微调。

来自主题: AI技术研报
2136 点击    2024-05-20 21:03
像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。

来自主题: AI技术研报
5154 点击    2024-02-03 12:52
符尧:别卷大模型训练了,来卷数据吧!【干货十足】

符尧:别卷大模型训练了,来卷数据吧!【干货十足】

符尧:别卷大模型训练了,来卷数据吧!【干货十足】

今天分享一篇符尧大佬的一篇数据工程(Data Engineering)的文章,解释了speed of grokking指标是什么,分析了数据工程

来自主题: AI资讯
7645 点击    2024-01-02 11:13