AI资讯新闻榜单内容搜索-tokenizer

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: tokenizer
MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law

MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law

MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law

MiniMax海螺视频团队不藏了!首次开源就揭晓了一个困扰行业已久的问题的答案——为什么往第一阶段的视觉分词器里砸再多算力,也无法提升第二阶段的生成效果?翻译成大白话就是,虽然图像/视频生成模型的参数越做越大、算力越堆越猛,但用户实际体验下来总有一种微妙的感受——这些庞大的投入与产出似乎不成正比,模型离完全真正可用总是差一段距离。

来自主题: AI技术研报
7450 点击    2025-12-22 17:07
MiniMax海螺首次开源 VTP,打通了 Visual Tokenizer 的 Scaling Law

MiniMax海螺首次开源 VTP,打通了 Visual Tokenizer 的 Scaling Law

MiniMax海螺首次开源 VTP,打通了 Visual Tokenizer 的 Scaling Law

MiniMax 海螺视频团队「首次开源」了 VTP(Visual Tokenizer Pre-training)项目。他们同步发布了一篇相当硬核的论文,它最有意思的地方在于 3 个点:「重建做得越好,生成反而可能越差」,传统 VAE 的直觉是错的

来自主题: AI技术研报
7938 点击    2025-12-20 10:04
永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

扩散模型「去噪」,是不是反而忘了真正去噪?何恺明携弟子出手,回归本源!

来自主题: AI技术研报
9584 点击    2025-11-20 15:26
RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

近期,RAE(Diffusion Transformers with Representation Autoencoders)提出以「 冻结的预训练视觉表征」直接作为潜空间,以显著提升扩散模型的生成性能。

来自主题: AI技术研报
10500 点击    2025-11-14 10:21
Being-VL的视觉BPE路线:把「看」和「说」真正统一起来

Being-VL的视觉BPE路线:把「看」和「说」真正统一起来

Being-VL的视觉BPE路线:把「看」和「说」真正统一起来

为此,北大、UC San Diego 和 BeingBeyond 联合提出一种新的方法——Being-VL 的视觉 BPE 路线。Being-VL 的出发点是把这一步后置:先在纯自监督、无 language condition 的设定下,把图像离散化并「分词」,再与文本在同一词表、同一序列中由同一 Transformer 统一建模,从源头缩短跨模态链路并保留视觉结构先验。

来自主题: AI技术研报
7637 点击    2025-10-14 09:58
无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。

来自主题: AI技术研报
7821 点击    2025-07-13 11:37
李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了

李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了

李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了

当我们看到一张猫咪照片时,大脑自然就能识别「这是一只猫」。但对计算机来说,它看到的是一个巨大的数字矩阵 —— 假设是一张 1000×1000 像素的彩色图片,实际上是一个包含 300 万个数字的数据集(1000×1000×3 个颜色通道)。每个数字代表一个像素点的颜色深浅,从 0 到 255。

来自主题: AI技术研报
8938 点击    2025-03-20 16:51
UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。

来自主题: AI技术研报
8352 点击    2025-01-23 13:19
从2019年到现在,是时候重新审视Tokenization了

从2019年到现在,是时候重新审视Tokenization了

从2019年到现在,是时候重新审视Tokenization了

2019 年问世的 GPT-2,其 tokenizer 使用了 BPE 算法,这种算法至今仍很常见,但这种方式是最优的吗?来自 HuggingFace 的一篇文章给出了解释。

来自主题: AI技术研报
9647 点击    2025-01-04 14:20