大模型时代,AI芯片“破局”之战
大模型时代,AI芯片“破局”之战说起半导体行业面临的难题,人们第一时间想到的是什么?是光刻机?是5nm?是一块方方正正的芯片,我们造不出来?
说起半导体行业面临的难题,人们第一时间想到的是什么?是光刻机?是5nm?是一块方方正正的芯片,我们造不出来?
在英伟达市值猛涨、各家科技巨头囤芯片的热潮中,我们往往会忽视GPU芯片是如何转变为数据中心算力的。最近,一篇SemiAnalysis的技术文章就深入解读了10万卡H100集群的构建过程。
芯东西6月21日消息,据The Information报道,研发出世界最大芯片的明星AI芯片独角兽Cerebras Systems已向证券监管机构秘密申请IPO。
毕业季,大模型人才正在被各家大厂和创业公司重金哄抢。 刚刚,腾讯也曝光了他们与大模型相关的人才计划,并且直通2025年校招—— 将面向全球范围内大举扩招50%大模型人才,并且放话薪资算力什么的不用愁。 不出所料,各家抢人下手都既快又狠,晚一步生怕就抢不到(不是)。
AI对计算栈的改变远超过去50年各种变化的总和。
在商业需求更明确的未来,FPGA或ASIC将成为更优的底层计算设备。
就在刚刚,英伟达市值超越微软,成为全球市值最高公司!而CEO老黄的净资产也随之增至1170亿美元,成为全球TOP 11富人。随着全世界疯抢英伟达GPU,华尔街对AI的乐观情绪还在狂热飙涨!不过,老黄却担忧起来了……
基于 Transformer架构的大型语言模型在各种基准测试中展现出优异性能,但数百亿、千亿乃至万亿量级的参数规模会带来高昂的服务成本。例如GPT-3有1750亿参数,采用FP16存储,模型大小约为350GB,而即使是英伟达最新的B200 GPU 内存也只有192GB ,更不用说其他GPU和边缘设备。
给人才充足的GPU,是很重要的!
分头作战,不如选择抱团?