AI资讯新闻榜单内容搜索-对齐

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 对齐
OpenAI宫斗中被忽略的一部分:AI对齐

OpenAI宫斗中被忽略的一部分:AI对齐

OpenAI宫斗中被忽略的一部分:AI对齐

本文探讨了AI对齐在OpenAI公司中被忽视的一部分,以及AI对齐在大模型训练中的重要性和影响。文章揭示了OpenAI内部因AI对齐而产生的分歧,并阐述了AI对齐在保证AI按照人类意图和价值观运作方面的作用。同时,文章指出AI对齐在大模型训练中存在的性能阉割和对齐税等问题,以及AI对齐在大模型发展中的隐藏模型和重要性。

来自主题: AI资讯
4943 点击    2023-11-23 20:29
OpenAI“政变”续:“董事会都对不齐,怎么让AI对齐人类”

OpenAI“政变”续:“董事会都对不齐,怎么让AI对齐人类”

OpenAI“政变”续:“董事会都对不齐,怎么让AI对齐人类”

OpenAI的董事会发生了“政变”,导致CEO奥特曼被罢免。董事会没有公布具体原因,引发了公司内部和投资者的不满和困惑。

来自主题: AI资讯
5757 点击    2023-11-22 10:06
北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源

北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源

北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源

AI能理解搞笑视频笑点在哪里了。北大等团队开源视觉语言大模型Video-LLaVA,将图像和视频表示对齐到统一的视觉特征空间,在13个图片和视频基准上达到先进的性能。

来自主题: AI技术研报
5157 点击    2023-11-21 12:24
BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

BPO:灵活的 Prompt 对齐优化技术

并非所有人都熟知如何与 LLM 进行高效交流。 一种方案是,人向模型对齐。于是有了 「Prompt工程师」这一岗位,专门撰写适配 LLM 的 Prompt,从而让模型能够更好地生成内容。

来自主题: AI资讯
5049 点击    2023-11-20 14:00
「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR|NeurIPS 2023

「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR|NeurIPS 2023

「无需配对数据」就能学习!浙大等提出连接多模态对比表征C-MCR|NeurIPS 2023

C-MCR利用现有多模态对比表征间可能存在的重叠模态,来连接不同的对比表征,从而学到更多模态间的对齐关系,实现了在缺乏配对数据的多模态间进行训练。

来自主题: AI技术研报
2442 点击    2023-11-19 12:23
用AI评估AI,上交大新款大模型部分任务超越GPT-4,模型数据都开源

用AI评估AI,上交大新款大模型部分任务超越GPT-4,模型数据都开源

用AI评估AI,上交大新款大模型部分任务超越GPT-4,模型数据都开源

评估大模型对齐表现最高效的方式是?在生成式AI趋势里,让大模型回答和人类价值(意图)一致非常重要,也就是业内常说的对齐(Alignment)。

来自主题: AI技术研报
3911 点击    2023-11-13 21:49
AI对齐全面综述!北大等从800+文献中总结出四万字,知名学者挂帅

AI对齐全面综述!北大等从800+文献中总结出四万字,知名学者挂帅

AI对齐全面综述!北大等从800+文献中总结出四万字,知名学者挂帅

通用模型时代下,当今和未来的前沿AI系统如何与人类意图对齐?通往AGI的道路上,AI Alignment(AI对齐)是安全打开 “潘多拉魔盒” 的黄金密钥。

来自主题: AI技术研报
2954 点击    2023-11-04 23:11
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构

GraphGPT框架将图结构模型和大语言模型进行参数对齐,利用双阶段图指令微调范式提高模型对图结构的理解能力和适应性,再整合ChatGPT提高逐步推理能力,实现了更快的推理速度和更高的图任务预测准确率。

来自主题: AI技术研报
3529 点击    2023-10-28 21:18
AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

AgentLM:对齐Agent能力的大模型来了!7B/13B/70B全开源

智谱AI&清华KEG提出了一种对齐 Agent 能力的微调方法 AgentTuning,该方法使用少量数据微调已有模型,显著激发了模型的 Agent能力,同时可以保持模型原有的通用能力。

来自主题: AI技术研报
3942 点击    2023-10-23 10:17
0.2美元微调就能让ChatGPT彻底破防

0.2美元微调就能让ChatGPT彻底破防

0.2美元微调就能让ChatGPT彻底破防

微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!

来自主题: AI技术研报
6259 点击    2023-10-14 14:09