AI资讯新闻榜单内容搜索-长文本理解

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长文本理解
多模态长文本理解测评首发:46款模型无一攻克128K难关

多模态长文本理解测评首发:46款模型无一攻克128K难关

多模态长文本理解测评首发:46款模型无一攻克128K难关

来自香港科技大学、腾讯西雅图AI Lab、爱丁堡大学、Miniml.AI、英伟达的研究者联合提出了MMLongBench,旨在全面评估多模态模型的长文本理解能力。

来自主题: AI技术研报
7030 点击    2025-05-23 14:52
长文本向量模型在4K Tokens 之外形同盲区?

长文本向量模型在4K Tokens 之外形同盲区?

长文本向量模型在4K Tokens 之外形同盲区?

2025 年 2 月发布的 NoLiMA 是一种大语言模型(LLM)长文本理解能力评估方法。不同于传统“大海捞针”(Needle-in-a-Haystack, NIAH)测试依赖关键词匹配的做法,它最大的特点是 通过精心设计问题和关键信息,迫使模型进行深层语义理解和推理,才能从长文本中找到答案。

来自主题: AI技术研报
3830 点击    2025-03-12 15:08
用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

用AgenticLU长上下文理解,LLM澄清链CoC实现自学,答案召回率高达97.8% | 最新

LLM一个突出的挑战是如何有效处理和理解长文本。就像下图所示,准确率会随着上下文长度显著下降,那么究竟应该怎样提升LLM对长文本理解的准确率呢?

来自主题: AI技术研报
7175 点击    2025-03-06 09:54
Kimi.ai与ChatGPT:长文本理解与科研辅助的比较研究

Kimi.ai与ChatGPT:长文本理解与科研辅助的比较研究

Kimi.ai与ChatGPT:长文本理解与科研辅助的比较研究

一直以来,我都习惯于用各种各样的外部工具辅助自己的科研全过程。从论文阅读、文献查找、公式理解,再到论文润色,AI工具都能在不同程度地帮上我。

来自主题: AI技术研报
7087 点击    2024-03-21 09:40
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
4122 点击    2024-03-11 17:31