AI资讯新闻榜单内容搜索-检索增强生成

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 检索增强生成
检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

在检索增强生成中,扩大生成模型规模往往能提升准确率,但也会显著抬高推理成本与部署门槛。CMU 团队在固定提示模板、上下文组织方式与证据预算,并保持检索与解码设置不变的前提下,系统比较了生成模型规模与检索语料规模的联合效应,发现扩充检索语料能够稳定增强 RAG,并在多项开放域问答基准上让小中型模型在更大语料下达到甚至超过更大模型在较小语料下的表现,同时在更高语料规模处呈现清晰的边际收益递减。

来自主题: AI技术研报
7389 点击    2026-01-06 09:30
系统学习Deep Research,这一篇综述就够了

系统学习Deep Research,这一篇综述就够了

系统学习Deep Research,这一篇综述就够了

近年来,大模型的应用正从对话与创意写作,走向更加开放、复杂的研究型问题。尽管以检索增强生成(RAG)为代表的方法缓解了知识获取瓶颈,但其静态的 “一次检索 + 一次生成” 范式,难以支撑多步推理与长期

来自主题: AI技术研报
7063 点击    2026-01-02 15:01
生成式AI诉讼案中的新证据-检索增强生成(RAG)-评NYT v. Perplexity案

生成式AI诉讼案中的新证据-检索增强生成(RAG)-评NYT v. Perplexity案

生成式AI诉讼案中的新证据-检索增强生成(RAG)-评NYT v. Perplexity案

2025年12月5日,纽约时报(NYT)起诉Perplexity版权侵权。Perplexity是一家“小而美”的开发生成式AI的公司,苹果曾考虑收购它以增强自己的AI能力。

来自主题: AI资讯
8277 点击    2025-12-29 10:06
从 RAG 到 Context:2025 年 RAG 技术年终总结

从 RAG 到 Context:2025 年 RAG 技术年终总结

从 RAG 到 Context:2025 年 RAG 技术年终总结

过去的 2025 年,对于检索增强生成(RAG)技术而言,是经历深刻反思、激烈辩论与实质性演进的一年。

来自主题: AI技术研报
6849 点击    2025-12-22 09:37
高精度知识库≠Milvus+llm!这份PaddleOCR+混合检索+Rerank技巧请收好

高精度知识库≠Milvus+llm!这份PaddleOCR+混合检索+Rerank技巧请收好

高精度知识库≠Milvus+llm!这份PaddleOCR+混合检索+Rerank技巧请收好

在大型语言模型(LLM)的应用落地中,RAG(检索增强生成)是解决模型幻觉和知识时效性的关键技术。

来自主题: AI技术研报
9235 点击    2025-12-16 09:18
迎接「万物皆可RAG」时代:最新综述展示50多种多模态组合的巨大待探索空间

迎接「万物皆可RAG」时代:最新综述展示50多种多模态组合的巨大待探索空间

迎接「万物皆可RAG」时代:最新综述展示50多种多模态组合的巨大待探索空间

大模型最广泛的应用如 ChatGPT、Deepseek、千问、豆包、Gemini 等通常会连接互联网进行检索增强生成(RAG)来产生用户问题的答案。随着多模态大模型(MLLMs)的崛起,大模型的主流技术之一 RAG 迅速向多模态发展,形成多模态检索增强生成(MM-RAG)这个新兴领域。ChatGPT、千问、豆包、Gemini 都开始允许用户提供文字、图片等多种模态的输入。

来自主题: AI技术研报
6233 点击    2025-12-03 09:54
为什么记忆成为下一代 AI 的「核心变量」 | GAIR Live 20

为什么记忆成为下一代 AI 的「核心变量」 | GAIR Live 20

为什么记忆成为下一代 AI 的「核心变量」 | GAIR Live 20

人工智能在过去的十年中,以惊人的速度革新了信息处理和内容生成的方式。然而,无论是大语言模型(LLM)本体,还是基于检索增强生成(RAG)的系统,在实际应用中都暴露出了一个深层的局限性:缺乏跨越时间的、可演化的、个性化的“记忆”。它们擅长瞬时推理,却难以实现持续积累经验、反思历史、乃至真正像人一样成长的目标。

来自主题: AI技术研报
7759 点击    2025-11-29 09:56
与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

与DeepSeek-OCR不谋而合,NeurIPS论文提出让LLM像人一样读长文本

在处理短文本时,大语言模型(LLM)已经表现出惊人的理解和生成能力。但现实世界中的许多任务 —— 如长文档理解、复杂问答、检索增强生成(RAG)等 —— 都需要模型处理成千上万甚至几十万长度的上下文。

来自主题: AI技术研报
6387 点击    2025-11-10 15:12
最新Agentic Search综述,RL让Agent自主检索,RAG逐渐成为过去式

最新Agentic Search综述,RL让Agent自主检索,RAG逐渐成为过去式

最新Agentic Search综述,RL让Agent自主检索,RAG逐渐成为过去式

大型语言模型(LLM)本身很强大,但知识是静态的,有时会“胡说八道”。为了解决这个问题,我们可以让它去外部知识库(比如维基百科、搜索引擎)里“检索”信息,这就是所谓的“检索增强生成”(RAG)。

来自主题: AI资讯
6774 点击    2025-10-25 14:09
腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破

腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破

腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破

图检索增强生成(GraphRAG)已成为大模型解决复杂领域知识问答的重要解决方案之一。然而,当前学界和开源界的方案都面临着三大关键痛点: 开销巨大:通过 LLM 构建图谱及社区,Token 消耗大,耗

来自主题: AI技术研报
8861 点击    2025-09-14 10:45