AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
DeepMind升级Transformer,前向通过FLOPs最多可降一半

DeepMind升级Transformer,前向通过FLOPs最多可降一半

DeepMind升级Transformer,前向通过FLOPs最多可降一半

Transformer 的重要性无需多言,目前也有很多研究团队致力于改进这种变革性技术,其中一个重要的改进方向是提升 Transformer 的效率,比如让其具备自适应计算能力,从而可以节省下不必要的计算。

来自主题: AI资讯
3471 点击    2024-04-16 21:18
还在卷长文本?谷歌最新论文直接把文本干到…无限长了

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

通过这项技术,能使transformer大模型在有限的计算资源 条件下,处理无限长度的输入。

来自主题: AI技术研报
5827 点击    2024-04-15 15:15
谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。

来自主题: AI资讯
8337 点击    2024-04-14 11:32
魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

魔改RNN挑战Transformer,RWKV上新:推出2种新架构模型

不走Transformer寻常路,魔改RNN的国产新架构RWKV,有了新进展: 提出了两种新的RWKV架构,即Eagle (RWKV-5) 和Finch(RWKV-6)。

来自主题: AI资讯
7852 点击    2024-04-13 18:06
直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

谷歌又放大招了,发布下一代 Transformer 模型 Infini-Transformer。

来自主题: AI技术研报
8891 点击    2024-04-13 16:44
谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌更新Transformer架构,更节省计算资源!50%性能提升

谷歌终于更新了Transformer架构。最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

来自主题: AI技术研报
6268 点击    2024-04-05 17:04
CVPR 2024满分论文,英伟达开源BOP排行榜6D物体姿态第一名方法

CVPR 2024满分论文,英伟达开源BOP排行榜6D物体姿态第一名方法

CVPR 2024满分论文,英伟达开源BOP排行榜6D物体姿态第一名方法

物体姿态估计对于各种应用至关重要,例如机器人操纵和混合现实。实例级方法通常需要纹理 CAD 模型来生成训练数据,并且不能应用于测试时未见过的新物体;而类别级方法消除了这些假设(实例训练和 CAD 模型),但获取类别级训练数据需要应用额外的姿态标准化和检查步骤。

来自主题: AI技术研报
7233 点击    2024-04-04 15:32