AI资讯新闻榜单内容搜索-矩阵

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 矩阵
大模型终端部署新趋势:硬件直接支持混合矩阵乘法

大模型终端部署新趋势:硬件直接支持混合矩阵乘法

大模型终端部署新趋势:硬件直接支持混合矩阵乘法

在人工智能领域,模型参数的增多往往意味着性能的提升。但随着模型规模的扩大,其对终端设备的算力与内存需求也日益增加。低比特量化技术,由于可以大幅降低存储和计算成本并提升推理效率,已成为实现大模型在资源受限设备上高效运行的关键技术之一。然而,如果硬件设备不支持低比特量化后的数据模式,那么低比特量化的优势将无法发挥。

来自主题: AI资讯
3961 点击    2024-08-19 14:49
CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

CPU反超NPU,llama.cpp生成速度翻5倍!LLM端侧部署新范式T-MAC开源

T-MAC是一种创新的基于查找表(LUT)的方法,专为在CPU上高效执行低比特大型语言模型(LLMs)推理而设计,无需权重反量化,支持混合精度矩阵乘法(mpGEMM),显著降低了推理开销并提升了计算速度。

来自主题: AI资讯
5327 点击    2024-08-13 17:42
LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

低秩适应(Low-Rank Adaptation,LoRA)通过可插拔的低秩矩阵更新密集神经网络层,是当前参数高效微调范式中表现最佳的方法之一。此外,它在跨任务泛化和隐私保护方面具有显著优势。

来自主题: AI技术研报
10747 点击    2024-07-21 14:02
揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相

揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相

揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相

在 2024 年世界人工智能大会的现场,很多人在一个展台前排队,只为让 AI 大模型给自己在天庭「安排」一个差事。

来自主题: AI资讯
6539 点击    2024-07-05 00:08
平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

平均准确率达96.4%,中山大学&重庆大学开发基于Transformer的单细胞注释方法

使用测序 (scATAC-seq) 技术对转座酶可及的染色质进行单细胞测定,可在单细胞分辨率下深入了解基因调控和表观遗传异质性,但由于数据的高维性和极度稀疏性,scATAC-seq 的细胞注释仍然具有挑战性。现有的细胞注释方法大多集中在细胞峰矩阵上,而没有充分利用底层的基因组序列。

来自主题: AI技术研报
10160 点击    2024-05-04 20:01
魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

不走Transformer寻常路,魔改RNN的国产新架构RWKV,有了新进展: 提出了两种新的RWKV架构,即Eagle (RWKV-5) 和Finch(RWKV-6)。

来自主题: AI资讯
7931 点击    2024-04-13 18:06
Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

Llama提速500%!谷歌美女程序员手搓矩阵乘法内核

近日,天才程序员Justine Tunney发推表示自己更新了Llamafile的代码,通过手搓84个新的矩阵乘法内核,将Llama的推理速度提高了500%!

来自主题: AI技术研报
5207 点击    2024-04-07 17:49