AI资讯新闻榜单内容搜索-状态空间模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 状态空间模型
SSM+扩散模型,竟造出一种全新的「视频世界模型」

SSM+扩散模型,竟造出一种全新的「视频世界模型」

SSM+扩散模型,竟造出一种全新的「视频世界模型」

当状态空间模型遇上扩散模型,对世界模型意味着什么?

来自主题: AI技术研报
7946 点击    2025-05-31 16:40
Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba作者带斯坦福同学、导师创业,Cartesia获2700万美元种子轮融资

Mamba 这种状态空间模型(SSM)被认为是 Transformer 架构的有力挑战者。近段时间,相关研究成果接连不断。而就在不久前,Mamba 作者 Albert Gu 与 Karan Goel、Chris Ré、Arjun Desai、Brandon Yang 一起共同创立的 Cartesia 获得 2700 万美元种子轮融资。

来自主题: AI技术研报
7190 点击    2024-12-13 17:21
从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

从线性注意力视角揭秘视觉Mamba,清华、阿里合作提出全新MILA模型

Mamba 是一种具有线性计算复杂度的状态空间模型,它能够以线性计算复杂度实现对输入序列的有效建模,在近几个月受到了广泛的关注。

来自主题: AI技术研报
6314 点击    2024-12-11 09:33
在12个视频理解任务中,Mamba先打败了Transformer

在12个视频理解任务中,Mamba先打败了Transformer

在12个视频理解任务中,Mamba先打败了Transformer

探索视频理解的新境界,Mamba 模型引领计算机视觉研究新潮流!传统架构的局限已被打破,状态空间模型 Mamba 以其在长序列处理上的独特优势,为视频理解领域带来了革命性的变革。

来自主题: AI技术研报
6116 点击    2024-04-30 18:28
Meta无限长文本大模型来了:参数仅7B,已开源

Meta无限长文本大模型来了:参数仅7B,已开源

Meta无限长文本大模型来了:参数仅7B,已开源

Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案

来自主题: AI技术研报
6219 点击    2024-04-17 20:17
我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

状态空间模型正在兴起,注意力是否已到尽头?

来自主题: AI技术研报
9050 点击    2024-02-17 12:03
MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

MoE与Mamba强强联合,将状态空间模型扩展到数百亿参数

状态空间模型(SSM)是近来一种备受关注的 Transformer 替代技术,其优势是能在长上下文任务上实现线性时间的推理、并行化训练和强大的性能。而基于选择性 SSM 和硬件感知型设计的 Mamba 更是表现出色,成为了基于注意力的 Transformer 架构的一大有力替代架构。

来自主题: AI技术研报
10247 点击    2024-01-23 15:09
五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈

五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈

五倍吞吐量,性能全面包围Transformer:新架构Mamba引爆AI圈

屹立不倒的 Transformer 迎来了一个强劲竞争者。在别的领域,如果你想形容一个东西非常重要,你可能将其形容为「撑起了某领域的半壁江山」。但在 AI 大模型领域,Transformer 架构不能这么形容,因为它几乎撑起了「整个江山」。

来自主题: AI资讯
6115 点击    2023-12-05 16:33