AI资讯新闻榜单内容搜索-对齐

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 对齐
LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

LLM对齐综述|迈向可扩展的大模型自动对齐,中科院软件所&阿里千问发布

近年来,大模型的高速发展极大地改变了人工智能的格局。对齐(Alignment) 是使大模型的行为符合人类意图和价值观,引导大模型按照人类的需求和期望进化的核心步骤,因此受到学术界和产业界的高度关注。

来自主题: AI资讯
7880 点击    2024-09-12 10:10
突破医疗影像分析:AI如何通过语言引导实现自我学习与精准分类

突破医疗影像分析:AI如何通过语言引导实现自我学习与精准分类

突破医疗影像分析:AI如何通过语言引导实现自我学习与精准分类

本文提出了一种名为MedUnA的方法,旨在解决医疗图像分类中因缺乏标注数据而导致的监督学习挑战。MedUnA利用视觉-语言模型(VLMs)中的视觉与文本对齐特性,通过无监督学习来适应医疗图像分类任务。

来自主题: AI资讯
3919 点击    2024-09-10 14:39
还在死磕AI咒语?北大-百川搞了个自动提示工程系统PAS

还在死磕AI咒语?北大-百川搞了个自动提示工程系统PAS

还在死磕AI咒语?北大-百川搞了个自动提示工程系统PAS

论文共同第一作者郑淼,来自于周泽南领导的百川对齐团队,毕业于北京大学,研究方向包括大语言模型、多模态学习以及计算机视觉等,曾主导MMFlow等开源项目。

来自主题: AI技术研报
5048 点击    2024-09-10 11:40
当奖励成为漏洞:从对齐本质出发自动「越狱」大语言模型

当奖励成为漏洞:从对齐本质出发自动「越狱」大语言模型

当奖励成为漏洞:从对齐本质出发自动「越狱」大语言模型

本文第一作者为香港大学博士研究生谢知晖,主要研究兴趣为大模型对齐与强化学习。

来自主题: AI技术研报
5662 点击    2024-08-31 15:09
LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

LLM蒸馏到GNN,性能提升6.2%!Emory提出大模型蒸馏到文本图|CIKM 2024

Emory大学的研究团队提出了一种创新的方法,将大语言模型(LLM)在文本图(Text-Attributed Graph, 缩写为TAG)学习中的强大能力蒸馏到本地模型中,以应对文本图学习中的数据稀缺、隐私保护和成本问题。通过训练一个解释器模型来理解LLM的推理过程,并对学生模型进行对齐优化,在多个数据集上实现了显著的性能提升,平均提高了6.2%。

来自主题: AI技术研报
10153 点击    2024-08-23 16:35
一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

SFT、RLHF 和 DPO 都是先估计 LLMs 本身的偏好,再与人类的偏好进行对齐

来自主题: AI资讯
5759 点击    2024-08-22 17:04
LLM智能「参差不齐」!AI大牛Karpathy用表情包解释「9.9<9.11」

LLM智能「参差不齐」!AI大牛Karpathy用表情包解释「9.9<9.11」

LLM智能「参差不齐」!AI大牛Karpathy用表情包解释「9.9<9.11」

前段时间冲上热搜的问题「9.11比9.9大吗?」,让几乎所有LLM集体翻车。看似热度已过,但AI界大佬Andrej Karpathy却从中看出了当前大模型技术的本质缺陷,以及未来的潜在改进方向。

来自主题: AI技术研报
8793 点击    2024-08-09 14:38
首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

大模型展现出了卓越的指令跟从和任务泛化的能力,这种独特的能力源自 LLMs 在训练中使用了指令跟随数据以及人类反馈强化学习(RLHF)。

来自主题: AI技术研报
9617 点击    2024-08-03 14:29
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。

来自主题: AI技术研报
8482 点击    2024-07-31 16:05