AI资讯新闻榜单内容搜索-集群

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 集群
喧嚣背后,国产GPU距离“平替”英伟达还有多远?

喧嚣背后,国产GPU距离“平替”英伟达还有多远?

喧嚣背后,国产GPU距离“平替”英伟达还有多远?

2024年上海的7月是一个沉闷的雨季,但对国产AI 行业来说,却迎来了堪比摇滚乐集会的WAIC(世界人工智能大会)。

来自主题: AI资讯
7536 点击    2024-08-12 17:38
Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

Llama3训练每3小时崩一次?豆包大模型、港大团队为脆皮万卡训练提效

伴随大模型迭代速度越来越快,训练集群规模越来越大,高频率的软硬件故障已经成为阻碍训练效率进一步提高的痛点,检查点(Checkpoint)系统在训练过程中负责状态的存储和恢复,已经成为克服训练故障、保障训练进度和提高训练效率的关键。

来自主题: AI资讯
5390 点击    2024-08-08 18:53
缺卡、缺电、缺组网技术,谁能为马斯克构建出全球最强大的 10 万卡超级集群?

缺卡、缺电、缺组网技术,谁能为马斯克构建出全球最强大的 10 万卡超级集群?

缺卡、缺电、缺组网技术,谁能为马斯克构建出全球最强大的 10 万卡超级集群?

埃隆·马斯克掌控的那几家公司——包括SpaceX、特斯拉、xAI乃至X(原Twitter)——都需要大量的GPU,而且也都是为自己的特定AI或者高性能计算(HPC)项目服务。

来自主题: AI资讯
9559 点击    2024-08-01 12:03
1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

1.6万块H100训Llama 3.1,每3小时故障1次!罪魁祸首竟是GPU和HBM3显存

在Meta的Llama 3.1训练过程中,其运行的1.6万个GPU训练集群每3小时就会出现一次故障,意外故障中的半数都是由英伟达H100 GPU和HBM3内存故障造成的。

来自主题: AI技术研报
9657 点击    2024-07-29 20:16
从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

从裸机到700亿参数大模型,这里有份教程,还有现成可用的脚本

我们知道 LLM 是在大规模计算机集群上使用海量数据训练得到的,机器之心曾介绍过不少用于辅助和改进 LLM 训练流程的方法和技术。而今天,我们要分享的是一篇深入技术底层的文章,介绍如何将一堆连操作系统也没有的「裸机」变成用于训练 LLM 的计算机集群。

来自主题: AI技术研报
8598 点击    2024-07-24 16:57
电脑平板组AI集群,在家就能跑400B大模型,GitHub狂揽2.5K星​

电脑平板组AI集群,在家就能跑400B大模型,GitHub狂揽2.5K星​

电脑平板组AI集群,在家就能跑400B大模型,GitHub狂揽2.5K星​

不用H100,三台苹果电脑就能带动400B大模型。 背后的功臣,是GitHub上的一个开源分布式AI推理框架,已经斩获了2.5k星标。

来自主题: AI技术研报
7163 点击    2024-07-23 00:26