AI资讯新闻榜单内容搜索-幻觉

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 幻觉
ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

ICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘

如何让大模型更好的遵从人类指令和意图?如何让大模型有更好的推理能力?如何让大模型避免幻觉?能否解决这些问题,是让大模型真正广泛可用,甚至实现超级智能(Super Intelligence)最为关键的技术挑战。这些最困难的挑战也是吴翼团队长期以来的研究重点,大模型对齐技术(Alignment)所要攻克的难题。

来自主题: AI资讯
10122 点击    2024-07-21 17:10
微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?

微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?

微软开源的GraphRAG爆火,Github Star量破万,生成式AI进入知识图谱时代?

LLM 很强大,但也存在一些明显缺点,比如幻觉问题、可解释性差、抓不住问题重点、隐私和安全问题等。检索增强式生成(RAG)可大幅提升 LLM 的生成质量和结果有用性。

来自主题: AI资讯
5806 点击    2024-07-15 14:01
OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

OpenAI Lilian Weng万字长文解读LLM幻觉:从理解到克服

人会有幻觉,大型语言模型也会有幻觉。近日,OpenAI 安全系统团队负责人 Lilian Weng 更新了博客,介绍了近年来在理解、检测和克服 LLM 幻觉方面的诸多研究成果。

来自主题: AI资讯
4753 点击    2024-07-13 19:46
语义熵识破LLM幻觉!牛津大学新研究登Nature

语义熵识破LLM幻觉!牛津大学新研究登Nature

语义熵识破LLM幻觉!牛津大学新研究登Nature

近日,来自牛津大学的研究人员推出了利用语义熵来检测LLM幻觉的新方法。作为克服混淆的策略,语义熵建立在不确定性估计的概率工具之上,可以直接应用于基础模型,无需对架构进行任何修改。

来自主题: AI资讯
9721 点击    2024-07-10 18:18
WAIC科学前沿会议大佬演讲干货!周伯文:大模型也有幻觉,全球AI创新指数公布

WAIC科学前沿会议大佬演讲干货!周伯文:大模型也有幻觉,全球AI创新指数公布

WAIC科学前沿会议大佬演讲干货!周伯文:大模型也有幻觉,全球AI创新指数公布

随着AGI这一生产力背后的生产力的进一步发展进化,我们也期待通过不断的努力和探索,推动AGI的技术突破和价值实现,为人类社会创造更多的福祉。

来自主题: AI资讯
9572 点击    2024-07-07 17:01
ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

本文介绍了一篇语言模型对齐研究的论文,由瑞士、英国、和法国的三所大学的博士生和 Google DeepMind 以及 Google Research 的研究人员合作完成。

来自主题: AI技术研报
8791 点击    2024-07-01 15:17
零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR

零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR

零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR

现有多模态大模型在对齐不同模态时面临幻觉和细粒度感知不足等问题,传统偏好学习方法依赖可能不适配的外源数据,存在成本和质量问题。Calibrated Self-Rewarding(CSR)框架通过自我增强学习,利用模型自身输出构造更可靠的偏好数据,结合视觉约束提高学习效率和准确性。

来自主题: AI技术研报
6490 点击    2024-06-21 14:05
To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

DeepMind发表了一篇名为「To Believe or Not to Believe Your LLM」的新论文,探讨了LLM的不确定性量化问题,通过「迭代提示」成功将LLM的认知不确定性和偶然不确定性解耦。研究还将新推导出的幻觉检测算法应用于Gemini,结果表明,与基线方法相比,该方法能有效检测幻觉。

来自主题: AI技术研报
8625 点击    2024-06-08 19:59