AI资讯新闻榜单内容搜索-对齐

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 对齐
AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024

音视频大语言模型在处理视频内容时,往往未能充分发挥语音的作用。video-SALMONN模型通过三部分创新:音视频编码和时间对齐、多分辨率因果Q-Former、多样性损失函数和混合未配对音视频数据训练。该模型不仅在单一模态任务上表现优异,更在视听联合任务中展现了卓越的性能,证明了其全面性和准确性。

来自主题: AI技术研报
6535 点击    2024-07-31 15:05
「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

「越狱」事件频发,如何教会大模型「迷途知返」而不是「将错就错」?

大型语言模型(LLM)展现出了令人印象深刻的智能水平。因此,确保其安全性显得至关重要。已有研究提出了各种策略,以使 LLM 与人类伦理道德对齐。然而,当前的先进模型例如 GPT-4 和 LLaMA3-70b-Instruct 仍然容易受到越狱攻击,并被用于恶意用途。

来自主题: AI技术研报
8392 点击    2024-07-30 16:55
彻底摒弃人工标注,AutoAlign方法基于大模型让知识图谱对齐全自动化

彻底摒弃人工标注,AutoAlign方法基于大模型让知识图谱对齐全自动化

彻底摒弃人工标注,AutoAlign方法基于大模型让知识图谱对齐全自动化

知识图谱作为结构化知识的重要载体,广泛应用于信息检索、电商、决策推理等众多领域。然而,由于不同机构或方法构建的知识图谱存在表示方式、覆盖范围等方面的差异,如何有效地将不同的知识图谱进行融合,以获得更加全面、丰富的知识体系,成为提高知识图谱覆盖度和准确率的重要问题,这就是知识图谱对齐(Knowledge Graph Alignment)任务所要解决的核心挑战。

来自主题: AI技术研报
5709 点击    2024-07-26 18:00
LLM对齐数据全自动合成!UW华人博士生提出Magpie方法,Macbook Air即可运行

LLM对齐数据全自动合成!UW华人博士生提出Magpie方法,Macbook Air即可运行

LLM对齐数据全自动合成!UW华人博士生提出Magpie方法,Macbook Air即可运行

华盛顿大学和Allen AI最近发表的论文提出了一种新颖有趣的数据合成方法。他们发现,充分利用LLM的自回归特性,可以引导模型自动生成高质量的指令微调数据。

来自主题: AI资讯
6281 点击    2024-07-26 17:27
ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

如何让大模型更好的遵从人类指令和意图?如何让大模型有更好的推理能力?如何让大模型避免幻觉?能否解决这些问题,是让大模型真正广泛可用,甚至实现超级智能(Super Intelligence)最为关键的技术挑战。这些最困难的挑战也是吴翼团队长期以来的研究重点,大模型对齐技术(Alignment)所要攻克的难题。

来自主题: AI资讯
10122 点击    2024-07-21 17:10
OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

OpenAI超级对齐团队再发「绝唱」!首提「证明者-验证者」博弈,训练GPT说人话

当我们不停在CoT等领域大下苦功、试图提升LLM推理准确性的同时,OpenAI的对齐团队从另一个角度发现了华点——除了准确性,生成答案的清晰度、可读性和可验证性也同样重要。

来自主题: AI技术研报
4838 点击    2024-07-18 16:19
直面AI价值对齐挑战

直面AI价值对齐挑战

直面AI价值对齐挑战

以发展的眼光看待价值对齐问题。

来自主题: AI资讯
6423 点击    2024-07-03 14:39
ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

本文介绍了一篇语言模型对齐研究的论文,由瑞士、英国、和法国的三所大学的博士生和 Google DeepMind 以及 Google Research 的研究人员合作完成。

来自主题: AI技术研报
8791 点击    2024-07-01 15:17