AI资讯新闻榜单内容搜索-Attention

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Attention
高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

高效Attention引擎是怎样炼成的?陈天奇团队FlashInfer打响新年第一枪!

新年第一天,陈天奇团队的FlashInfer论文出炉!块稀疏、可组合、可定制、负载均衡......更快的LLM推理技术细节全公开。

来自主题: AI技术研报
6842 点击    2025-01-24 13:58
4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

4比特量化三倍加速不掉点!清华即插即用的SageAttention迎来升级

大模型中,线性层的低比特量化已经逐步落地。然而,对于注意力模块,目前几乎各个模型都还在用高精度(例如 FP16 或 FP32)的注意力运算进行训练和推理。并且,随着大型模型需要处理的序列长度不断增加,Attention(注意力运算)的时间开销逐渐成为主要开销。

来自主题: AI技术研报
7243 点击    2024-12-27 09:44
突破数据瓶颈!交大研发电脑智能体,让 AI 替你熬夜做 PPT

突破数据瓶颈!交大研发电脑智能体,让 AI 替你熬夜做 PPT

突破数据瓶颈!交大研发电脑智能体,让 AI 替你熬夜做 PPT

想象这样一个场景:深夜 11 点,你已经忙碌了一天,正准备休息,却想起明天早上还得分享一篇经典论文《Attention Is All You Need》,需要准备幻灯片。这时,你突然想到了自己的 AI 助手 —— PC Agent。

来自主题: AI技术研报
9604 点击    2024-12-25 11:04
英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

英伟达提出全新Star Attention,10倍加速LLM推理!登顶Hugging Face论文榜

大模型如今已具有越来越长的上下文,而与之相伴的是推理成本的上升。英伟达最新提出的Star Attention,能够在不损失精度的同时,显著减少推理计算量,从而助力边缘计算。

来自主题: AI技术研报
6972 点击    2024-12-05 11:27
这个访谈回应了所有AI焦点问题,他是AI最重要论文的联合作者

这个访谈回应了所有AI焦点问题,他是AI最重要论文的联合作者

这个访谈回应了所有AI焦点问题,他是AI最重要论文的联合作者

随着scaling law撞墙新闻爆出,全球科技圈、资本市场关于大模型发展触及天花板的讨论愈演愈烈。那么,AI发展是否放缓?后续又将如何发展?商业模式如何突破?

来自主题: AI资讯
6064 点击    2024-11-27 09:05
MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

TL;DR:DuoAttention 通过将大语言模型的注意力头分为检索头(Retrieval Heads,需要完整 KV 缓存)和流式头(Streaming Heads,只需固定量 KV 缓存),大幅提升了长上下文推理的效率,显著减少内存消耗、同时提高解码(Decoding)和预填充(Pre-filling)速度,同时在长短上下文任务中保持了准确率。

来自主题: AI技术研报
3912 点击    2024-10-24 11:33
Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

Jurgen、曼宁等大佬新作:MoE重塑6年前的Universal Transformer,高效升级

7 年前,谷歌在论文《Attention is All You Need》中提出了 Transformer。就在 Transformer 提出的第二年,谷歌又发布了 Universal Transformer(UT)。它的核心特征是通过跨层共享参数来实现深度循环,从而重新引入了 RNN 具有的循环表达能力。

来自主题: AI技术研报
9191 点击    2024-10-19 14:29
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
9288 点击    2024-10-19 14:15
「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

「群体智能」剑指AGI革命!国产架构挑战Transformer霸权,首款非Attention模型更新

通往AGI的路径只有一条吗?实则不然。这家国产AI黑马认为,「群体智能」或许是一种最佳的尝试。他们正打破惯性思维,打造出最强AI大脑,要让世界每一台设备都有自己的智能。

来自主题: AI技术研报
9011 点击    2024-09-27 19:19