AI资讯新闻榜单内容搜索-内存

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 内存
谷歌开源Gemma 3n:2G内存就能跑,100亿参数内最强多模态模型

谷歌开源Gemma 3n:2G内存就能跑,100亿参数内最强多模态模型

谷歌开源Gemma 3n:2G内存就能跑,100亿参数内最强多模态模型

本周五凌晨,谷歌正式发布、开源了全新端侧多模态大模型 Gemma 3n。谷歌表示,Gemma 3n 代表了设备端 AI 的重大进步,它为手机、平板、笔记本电脑等端侧设备带来了强大的多模式功能,其性能去年还只能在云端先进模型上才能体验。

来自主题: AI资讯
7888 点击    2025-06-27 09:00
Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

普林斯顿大学计算机科学系助理教授陈丹琦团队又有了新论文了。近期,诸如「长思维链」等技术的兴起,带来了需要模型生成数万个 token 的全新工作负载。

来自主题: AI技术研报
8180 点击    2025-06-25 10:51
3D高斯泼溅,可输入视图量高达500!推理速度提升3倍,内存少80%

3D高斯泼溅,可输入视图量高达500!推理速度提升3倍,内存少80%

3D高斯泼溅,可输入视图量高达500!推理速度提升3倍,内存少80%

ZPressor能高效压缩3D高斯泼溅(3DGS)模型的多视图输入,解决其在处理密集视图时的性能瓶颈,提升渲染效率和质量。

来自主题: AI技术研报
8141 点击    2025-06-18 10:50
昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%

昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%

昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%

最近,华为在MoE训练系统方面,给出了MoE训练算子和内存优化新方案:三大核心算子全面提速,系统吞吐再提20%,Selective R/S实现内存节省70%。

来自主题: AI技术研报
6312 点击    2025-06-04 15:17
微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

微软再放LLM量化大招!原生4bit量化,成本暴减,性能几乎0损失

原生1bit大模型BitNet b1.58 2B4T再升级!微软公布BitNet v2,性能几乎0损失,而占用内存和计算成本显著降低。

来自主题: AI技术研报
7280 点击    2025-06-02 18:00