AI资讯新闻榜单内容搜索-内存

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 内存
ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP

ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP

ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP

模型量化是模型压缩与加速中的一项关键技术,其将模型权重与激活值量化至低 bit,以允许模型占用更少的内存开销并加快推理速度。对于具有海量参数的大语言模型而言,模型量化显得更加重要。

来自主题: AI技术研报
8150 点击    2024-03-07 13:53
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
9094 点击    2024-02-29 13:27
存储,战火重燃

存储,战火重燃

存储,战火重燃

英伟达的产能上不来,很大程度上是因为HBM(高带宽内存)不够用了。每一块H100芯片,都会用到6颗HBM。当下,SK海力士、三星供应了90%的HBM,并且技术领先美光整整一个代际。

来自主题: AI资讯
5863 点击    2024-02-20 17:07
推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

为了应对大模型不断复杂的推理和训练,英伟达、AMD、英特尔、谷歌、微软、Meta、Arm、高通、MatX以及Lemurian Labs,纷纷开始研发全新的硬件解决方案。

来自主题: AI技术研报
7316 点击    2024-02-17 11:06
进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

2023 年,大型语言模型(LLM)以其强大的生成、理解、推理等能力而持续受到高度关注。然而,训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的方法。

来自主题: AI技术研报
3718 点击    2024-02-09 14:05
“存算一体”是大模型AI芯片的破局关键?

“存算一体”是大模型AI芯片的破局关键?

“存算一体”是大模型AI芯片的破局关键?

近年来,随着Transformer模型的大规模发展和应用,模型大小每两年平均增长240倍,GPT-3等大模型的参数增长已经超过了GPU内存的增长。在大算力激增的需求下,越来越多行业人士认识到,新的计算架构或许才是算力破局的关键。

来自主题: AI资讯
9370 点击    2024-01-09 09:14
 4GB 显存单卡居然能跑 70B 大模型了!

4GB 显存单卡居然能跑 70B 大模型了!

4GB 显存单卡居然能跑 70B 大模型了!

大语言模型需要消耗巨量的GPU内存。有可能一个单卡GPU跑推理吗?可以的话,最低多少显存?70B大语言模型仅参数量就有130GB,仅仅把模型加载到GPU显卡里边就需要2台顶配100GB内存的A100。

来自主题: AI资讯
7505 点击    2023-12-07 11:00
谷歌AI Core迎来首个更新,要为端侧大模型赋能

谷歌AI Core迎来首个更新,要为端侧大模型赋能

谷歌AI Core迎来首个更新,要为端侧大模型赋能

端侧大模型以及AI Core的出现,势必将带来安卓机新一轮的内存容量升级。

来自主题: AI资讯
6708 点击    2023-12-01 21:17