AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2很强很火爆,但随着讨论的深入,还是有bug被发现了。 并且是个老问题:浪费token。不少网友都提到,DeepSeek-V3.2的长思考增强版Speciale,确确实实以开源之姿又给闭源TOP们上了压力,但问题也很明显:

来自主题: AI资讯
7692 点击    2025-12-04 09:49
Claude Opus 4.5 的灵魂文档被人逆向提取!Anthropic 负责人承认属实

Claude Opus 4.5 的灵魂文档被人逆向提取!Anthropic 负责人承认属实

Claude Opus 4.5 的灵魂文档被人逆向提取!Anthropic 负责人承认属实

家人们,大瓜! 国外有位叫 Richard Weiss 的开发者花了 70 美元,把 Claude 4.5 Opus 给——审!讯!了!而且审出了 Claude 的人生观、世界观、价值观,足足 1.4 万 token。

来自主题: AI资讯
7720 点击    2025-12-03 20:00
你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

一般人和 ChatGPT 聊天时,往往不会在意要不要讲究礼貌。但来自爱荷华大学的一项最新研究显示:即便回答内容几乎相同,对 ChatGPT 粗鲁无礼也会让你花费更高的输出成本。

来自主题: AI技术研报
6859 点击    2025-12-01 14:29
NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

随着大型语言模型在各类任务中展现出卓越的生成与推理能力,如何将模型输出精确地追溯到其内部计算过程,已成为 AI 可解释性研究的重要方向。然而,现有方法往往计算代价高昂、难以揭示中间层的信息流动;同时,不同层面的归因(如 token、模型组件或表示子空间)通常依赖各自独立的特定方法,缺乏统一且高效的分析框架。

来自主题: AI技术研报
5567 点击    2025-12-01 13:49
你每月烧掉的 Token 费用,至少 20% 都是冤枉钱

你每月烧掉的 Token 费用,至少 20% 都是冤枉钱

你每月烧掉的 Token 费用,至少 20% 都是冤枉钱

Hi,早上好。 我是洛小山,和你聊聊 AI 应用的降本增效。

来自主题: AI技术研报
7218 点击    2025-12-01 11:36
NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!

NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!

NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!

REG 是一种简单而有效的方法,仅通过引入一个 class token 便能大幅加速生成模型的训练收敛。其将基础视觉模型(如 DINOv2)的 class token 与 latent 在空间维度拼接后共同加噪训练,从而显著提升 Diffusion 的收敛速度与性能上限。在 ImageNet 256×256 上,

来自主题: AI技术研报
6657 点击    2025-11-29 13:46
狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

Gemini 3力压全场,OpenAI坐不住了。发布Codex新版本——GPT-5.1-Codex-Max,突破上下文窗口限制,实现跨越数百万token的长时间连续工作,最长超过24小时的那种。

来自主题: AI资讯
8663 点击    2025-11-20 20:29
永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

扩散模型「去噪」,是不是反而忘了真正去噪?何恺明携弟子出手,回归本源!

来自主题: AI技术研报
9587 点击    2025-11-20 15:26
RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

近期,RAE(Diffusion Transformers with Representation Autoencoders)提出以「 冻结的预训练视觉表征」直接作为潜空间,以显著提升扩散模型的生成性能。

来自主题: AI技术研报
10501 点击    2025-11-14 10:21