
斯坦福让“GPU高速运转”的新工具火了,比FlashAttention2更快
斯坦福让“GPU高速运转”的新工具火了,比FlashAttention2更快AI算力资源越发紧张的当下,斯坦福新研究将GPU运行效率再提升一波——
AI算力资源越发紧张的当下,斯坦福新研究将GPU运行效率再提升一波——
如何突破 Transformer 的 Attention 机制?中国科学院大学与鹏城国家实验室提出基于热传导的视觉表征模型 vHeat。将图片特征块视为热源,并通过预测热传导率、以物理学热传导原理提取图像特征。相比于基于Attention机制的视觉模型, vHeat 同时兼顾了:计算复杂度(1.5次方)、全局感受野、物理可解释性。
只需上传一张照片,就能瞬间变换身份,获得高精度个人写真! 或是科幻电影中的超级英雄,或是穿越时空的复古角色…… 李飞飞在家做饭的样子有了,还有让斯嘉丽一键带圣诞帽。
众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由于这些工作负载的规模和复杂性,导致训练大模型存在着独特的系统性挑战。
大模型在今年的落地,除了对用 AI 对已有业务进行改造和提效外,算力和推理的优化,可能是另外一项重要的实践了。这在腾讯的两个完全不同的业务上有着明显的体现。
JAX在最近的基准测试中的性能已经不声不响地超过了Pytorch和TensorFlow,也许未来会有更多的大模型诞生在这个平台上。谷歌在背后的默默付出终于得到了回报。
Mamba时代来了?
最近两年的人工智能繁荣,让英伟达凭借GPU登上了芯片之巅。于是包括AMD、Intel、Graphcore、Cerebras和Tenstorrent等在内的传统和新贵芯片企业试图在这个领域将英伟达拉下马。
非十科技推出了一款基于自研代码大模型打造的 AI 代码助手 ——Fitten Code,它可以帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升编码效率,并且向用户免费开放使用!
以大规模著称的Transformer,在实际应用中的高算力和高成本,让不少中小型企业望而却步。