AI资讯新闻榜单内容搜索-Ash

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Ash
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!

来自主题: AI技术研报
10399 点击    2024-10-19 14:15
速递|开源Lightdash获Accel投资1100万美元,1年收入增长7倍,将AI引入商业智能BI

速递|开源Lightdash获Accel投资1100万美元,1年收入增长7倍,将AI引入商业智能BI

速递|开源Lightdash获Accel投资1100万美元,1年收入增长7倍,将AI引入商业智能BI

Lightdash,一个商业智能(BI)平台和开源替代品,旨在替代谷歌的 Looker,正在推出一款新产品,允许公司为特定团队的使用案例培训“AI 分析师”,使公司中的任何人都能够查询汇总的业务数据。

来自主题: AI资讯
8935 点击    2024-10-09 12:36
这个国庆,智谱悄咪咪打起了第二轮价格战

这个国庆,智谱悄咪咪打起了第二轮价格战

这个国庆,智谱悄咪咪打起了第二轮价格战

近一个月来,全面对标 OpenAI 的智谱大小动作不断,GLM-4-Flash 免费,推出极致性价比的 FlashX,旗舰模型升级到 Plus 系列... 其中最为关注的就是 Plus 系列,模型性能越来越强的同时,价格也越来越低。

来自主题: AI资讯
5524 点击    2024-10-01 14:37
通过打包 Flash Attention 来提升 Hugging Face 训练效率

通过打包 Flash Attention 来提升 Hugging Face 训练效率

通过打包 Flash Attention 来提升 Hugging Face 训练效率

现在,在 Hugging Face 中,使用打包的指令调整示例 (无需填充) 进行训练已与 Flash Attention 2 兼容,这要归功于一个 最近的 PR 以及新的 DataCollatorWithFlattening。 它可以在保持收敛质量的同时,将训练吞吐量提高多达 2 倍。继续阅读以了解详细信息!

来自主题: AI资讯
4006 点击    2024-09-18 15:44
真香!智谱大模型,有了首个免费的API

真香!智谱大模型,有了首个免费的API

真香!智谱大模型,有了首个免费的API

大模型API,正式进入Flash时代。

来自主题: AI资讯
9783 点击    2024-08-27 19:40
Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍

时隔一年,FlashAttention又推出了第三代更新,专门针对H100 GPU的新特性进行优化,在之前的基础上又实现了1.5~2倍的速度提升。

来自主题: AI技术研报
9893 点击    2024-07-12 16:57