AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
Karpathy新实验火了!一个「表情」占53个token,DeepSeek-R1苦思10分解谜失败

Karpathy新实验火了!一个「表情」占53个token,DeepSeek-R1苦思10分解谜失败

Karpathy新实验火了!一个「表情」占53个token,DeepSeek-R1苦思10分解谜失败

一个简单的笑脸😀可能远不止这么简单?最近,AI大神Karpathy发现,一个😀竟然占用了多达53个token!这背后隐藏着Unicode编码的哪些秘密?如何利用这些「隐形字符」在文本中嵌入、传递甚至「隐藏」任意数据。更有趣的是,这种「数据隐藏术」甚至能对AI模型进行「提示注入」!

来自主题: AI技术研报
6026 点击    2025-02-14 10:21
不卡顿、免费的满血版DeepSeek-R1 API,在无问芯穹这里用上了,更有异构算力鼎力相助

不卡顿、免费的满血版DeepSeek-R1 API,在无问芯穹这里用上了,更有异构算力鼎力相助

不卡顿、免费的满血版DeepSeek-R1 API,在无问芯穹这里用上了,更有异构算力鼎力相助

还在为 DeepSeek R1 官网的卡顿抓狂?无问芯穹大模型服务平台现已上线满血版 DeepSeek-R1、V3,无需邀请即可免费用 Token!另有异构算力鼎力相助,支持通过 Infini-AI 异构云平台一键获取 DeepSeek 系列模型与多元异构自主算力服务。

来自主题: AI资讯
6970 点击    2025-02-11 14:56
LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

LLaVA-Mini来了!每张图像所需视觉token压缩至1个,兼顾效率内存

以 GPT-4o 为代表的实时交互多模态大模型(LMMs)引发了研究者对高效 LMM 的广泛关注。现有主流模型通过将视觉输入转化为大量视觉 tokens,并将其嵌入大语言模型(LLM)上下文来实现视觉信息理解。

来自主题: AI技术研报
2756 点击    2025-02-06 15:26
DeepSeek华为火线联手!硅基流动首发即限流,全国产API白菜价,零门槛部署

DeepSeek华为火线联手!硅基流动首发即限流,全国产API白菜价,零门槛部署

DeepSeek华为火线联手!硅基流动首发即限流,全国产API白菜价,零门槛部署

国产大模型云服务平台SiliconCloud(硅基流动),首发上线了基于华为云昇腾云服务的DeepSeek-V3、DeepSeek-R1。 DeepSeek-V3:输入只需1块钱/M tokens,输出2块钱/M tokens

来自主题: AI资讯
7921 点击    2025-02-02 13:03
新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

新范式,自回归大一统!北大提出VARGPT:单一框架实现视觉「理解」与「生成」

VARGPT是一种新型多模态大模型,能够在单一框架内实现视觉理解和生成任务。通过预测下一个token完成视觉理解,预测下一个scale完成视觉生成,展现出强大的混合模态输入输出能力。

来自主题: AI技术研报
6749 点击    2025-01-28 12:07
Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

Qwen开源首个长文本新模型,百万Tokens处理性能超GPT-4o-mini

谈到大模型的“国货之光”,除了DeepSeek之外,阿里云Qwen这边也有新动作——首次将开源Qwen模型的上下文扩展到1M长度。

来自主题: AI资讯
7517 点击    2025-01-27 14:18
AI时代不看独角兽,看10亿Tokens日均消耗

AI时代不看独角兽,看10亿Tokens日均消耗

AI时代不看独角兽,看10亿Tokens日均消耗

创立10年内估值超过10亿美元的创新公司,被称之为独角兽,它们是市场潜力无限的绩优股,是为行业带来技术创新、模式创新的佼佼者。

来自主题: AI资讯
8324 点击    2025-01-23 13:27
UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

UC伯克利等提出具身智能「动作Tokenizer」,效率飙升5倍!

研究者提出了FAST,一种高效的动作Tokenizer。通过结合离散余弦变换(DCT)和字节对编码(BPE),FAST显著缩短了训练时间,并且能高效地学习和执行复杂任务,标志着机器人自回归Transformer训练的一个重要突破。

来自主题: AI技术研报
7151 点击    2025-01-23 13:19