AI资讯新闻榜单内容搜索-GPU

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: GPU
生成式AI,一年或造50万吨垃圾

生成式AI,一年或造50万吨垃圾

生成式AI,一年或造50万吨垃圾

智东西11月8日报道,生成式AI的发展或将加剧电子垃圾问题。

来自主题: AI技术研报
1908 点击    2024-11-09 09:46
¥9.99租英伟达H800!双十一算力羊毛真香,闲置卡也能挂机变现

¥9.99租英伟达H800!双十一算力羊毛真香,闲置卡也能挂机变现

¥9.99租英伟达H800!双十一算力羊毛真香,闲置卡也能挂机变现

双十一大促没有羊毛可薅?A800价格低至5.88元/卡时,H800价格低至9.99元/卡时。限量开抢,先到先得!还有充值返现活动:充5000返900,充3000返500,充1000返150。

来自主题: AI资讯
5057 点击    2024-11-04 15:20
为什么AI对GPU的要求高,而不是CPU?

为什么AI对GPU的要求高,而不是CPU?

为什么AI对GPU的要求高,而不是CPU?

在人工智能(AI)领域,特别是深度学习和神经网络训练中,GPU(图形处理单元)已经成为不可或缺的硬件。但为什么AI对GPU的要求高,而不是CPU(中央处理单元)呢?让我们通过一个生动的比喻来揭开这个谜团。

来自主题: AI资讯
3999 点击    2024-11-04 09:52
深度|NVIDIA旗舰GPU对比:H100、A6000、L40S、A100在训练与推理中的应用

深度|NVIDIA旗舰GPU对比:H100、A6000、L40S、A100在训练与推理中的应用

深度|NVIDIA旗舰GPU对比:H100、A6000、L40S、A100在训练与推理中的应用

通过深入分析这些 GPU 的性能指标,我们将探讨它们在模型训练和推理任务中的适用场景,以帮助用户在选择适合的 GPU 时做出明智的决策。同时,我们还会给出一些实际有哪些知名的公司或项目在使用这几款 GPU。

来自主题: AI资讯
8263 点击    2024-10-31 11:55
国产视频模型,何以风靡美国社交媒体?

国产视频模型,何以风靡美国社交媒体?

国产视频模型,何以风靡美国社交媒体?

最近有一篇题为《2美元的H100:GPU泡沫是如何破灭的?》的文章异常火热,甚至投资人都认为英伟达坚挺的股价就是被这一篇文章所摧毁。

来自主题: AI资讯
4460 点击    2024-10-31 09:36
人类已知最大素数诞生:2¹³⁶²⁷⁹⁸⁴¹−1!前英伟达员工数千GPU爆肝算出,高达4100万位

人类已知最大素数诞生:2¹³⁶²⁷⁹⁸⁴¹−1!前英伟达员工数千GPU爆肝算出,高达4100万位

人类已知最大素数诞生:2¹³⁶²⁷⁹⁸⁴¹−1!前英伟达员工数千GPU爆肝算出,高达4100万位

人类已知最大的素数,被GPU发现了!英伟达前员工Luke Durant发现的2136279841-1,比前一个纪录保持者多出1600万位,由A100计算,H100确认。为此,小哥搭了数千个GPU的「云超算」,分布在17个国家。

来自主题: AI资讯
3847 点击    2024-10-27 14:36
7B新王登基!Zamba 2完胜同级模型,推理效率比Llama 3提升20%,内存用量更少

7B新王登基!Zamba 2完胜同级模型,推理效率比Llama 3提升20%,内存用量更少

7B新王登基!Zamba 2完胜同级模型,推理效率比Llama 3提升20%,内存用量更少

Zamba2-7B是一款小型语言模型,在保持输出质量的同时,通过创新架构实现了比同类模型更快的推理速度和更低的内存占用,在图像描述等任务上表现出色,能在各种边缘设备和消费级GPU上高效运行。

来自主题: AI技术研报
4133 点击    2024-10-25 11:06
MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

MIT韩松团队长上下文LLM推理高效框架DuoAttention:单GPU实现330万Token上下文推理

TL;DR:DuoAttention 通过将大语言模型的注意力头分为检索头(Retrieval Heads,需要完整 KV 缓存)和流式头(Streaming Heads,只需固定量 KV 缓存),大幅提升了长上下文推理的效率,显著减少内存消耗、同时提高解码(Decoding)和预填充(Pre-filling)速度,同时在长短上下文任务中保持了准确率。

来自主题: AI技术研报
3573 点击    2024-10-24 11:33
用光学让AI算力集群提速数十倍,Lightmatter融资4亿美元

用光学让AI算力集群提速数十倍,Lightmatter融资4亿美元

用光学让AI算力集群提速数十倍,Lightmatter融资4亿美元

传统计算架构的潜力开发已接近极限 要实现超强的AI能力,需要超大规模的模型,要训练超大规模的AI模型,需要数千,甚至上万的GPU协同工作。

来自主题: AI资讯
2885 点击    2024-10-24 09:52