AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
8536 点击    2025-05-01 13:54
上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络

上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络

上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络

随着大语言模型 (LLM) 技术的迅猛发展,基于 LLM 的智能智能体在客户服务、内容创作、数据分析甚至医疗辅助等多个行业领域得到广泛应用。

来自主题: AI技术研报
8433 点击    2025-04-30 15:05
细思极恐,AI操控舆论达人类6倍!卧底4月无人识破,Reddit集体沦陷

细思极恐,AI操控舆论达人类6倍!卧底4月无人识破,Reddit集体沦陷

细思极恐,AI操控舆论达人类6倍!卧底4月无人识破,Reddit集体沦陷

AI洗脑人类,成功率6倍暴击!苏黎世大学在Reddit秘密实验引爆全网,LLM假扮多种身份,历时4个月发表1700+评论,轻松操控舆论,竟无人识破。

来自主题: AI资讯
9030 点击    2025-04-30 09:04
首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

首个大模型全链路安全综述 !南洋理工新国立等发布LLM Safety全景图:从数据、训练到部署的全面梳理

随着人工智能技术迅猛发展,大模型(如GPT-4、文心一言等)正逐步渗透至社会生活的各个领域,从医疗、教育到金融、政务,其影响力与日俱增。

来自主题: AI技术研报
9240 点击    2025-04-29 15:27
ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%

多模态大模型(MLLMs)在视觉理解与推理等领域取得了显著成就。然而,随着解码(decoding)阶段不断生成新的 token,推理过程的计算复杂度和 GPU 显存占用逐渐增加,这导致了多模态大模型推理效率的降低。

来自主题: AI技术研报
7629 点击    2025-04-29 14:56
AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭

AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭

AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭

尽管LLM看似能够进行流畅推理和问题解答,但它们背后的思维链其实只是复杂的统计模式匹配,而非真正的推理能力。AI模型仅仅通过海量数据和经验法则来生成响应,而不是通过深刻的世界模型和逻辑推理来做决策。

来自主题: AI技术研报
9186 点击    2025-04-29 09:52
RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升

RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升

RAG性能暴增20%!清华等推出“以笔记为中心”的深度检索增强生成框架,复杂问答效果飙升

在当前大语言模型(LLMs)广泛应用于问答、对话等任务的背景下,如何更有效地结合外部知识、提升模型对复杂问题的理解与解答能力,成为 RAG(Retrieval-Augmented Generation)方向的核心挑战。

来自主题: AI技术研报
8676 点击    2025-04-29 08:55
OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

自回归模型,首次生成2048×2048分辨率图像!来自Meta、西北大学、新加坡国立大学等机构的研究人员,专门为多模态大语言模型(MLLMs)设计的TokenShuffle,显著减少了计算中的视觉Token数量,提升效率并支持高分辨率图像合成。

来自主题: AI技术研报
9446 点击    2025-04-28 09:16
70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍

LLM的规模爆炸式增长,传统量化技术虽能压缩模型,却以牺牲精度为代价。莱斯大学团队的最新研究DFloat11打破这一僵局:它将模型压缩30%且输出与原始模型逐位一致!更惊艳的是,通过针对GPU的定制化解压缩内核,DFloat11使推理吞吐量提升最高38.8倍。

来自主题: AI技术研报
8969 点击    2025-04-28 09:05