AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
豆包有Seed,火山有种

豆包有Seed,火山有种

豆包有Seed,火山有种

结果今天就等到豆包全家族了。Seedance 2.0都把贾樟柯干Fomo了,现在又上了个最全面的多模态Agent模型,还有人管管字节吗?Seed团队跳动得停不下来了💃烧的全是火山引擎上的Tokens,同时火山引擎上已经有豆包2.0系列的API了。

来自主题: AI资讯
8801 点击    2026-02-15 21:53
OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

OpenAI深夜突袭,GPT-5.3-Codex-Spark正式炸场。核心卖点只有一个:快!每秒1000个token,让代码生成告别加载条。联手Cerebras怪兽级硬件,物理外挂直接拉满。这不再是简单的工具升级。而是一场关于速度的暴力美学。

来自主题: AI资讯
8758 点击    2026-02-14 18:38
刚刚,DeepSeek官宣更新了!突然「变冷」冲爆热搜

刚刚,DeepSeek官宣更新了!突然「变冷」冲爆热搜

刚刚,DeepSeek官宣更新了!突然「变冷」冲爆热搜

确认了!DeepSeek昨晚官宣网页版、APP更新,支持100k token上下文。如今,全网都在蹲DeepSeek V4了。

来自主题: AI资讯
7343 点击    2026-02-14 18:23
Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

Z Tech|ICLR 2026字节发布:从短句到篇章,DiscoX为长文翻译提供评测新范式

DiscoX构建了一套200题的长文翻译数据集,以平均长度1,712 tokens的长篇章做评测单元,要求整个长文文本作为一个整体来翻译,除翻译准确度外,重点考察跨段落的逻辑与风格一致性、上下文中的术语精确性、以及专业写作规范,贴合用户真实的使用场景。

来自主题: AI技术研报
9784 点击    2026-02-13 11:03
国产大模型杀疯了,MiniMax-M2.5即将开源!

国产大模型杀疯了,MiniMax-M2.5即将开源!

国产大模型杀疯了,MiniMax-M2.5即将开源!

这两天 AI 圈真的太热闹了,就在网传 DeepSeek 要更新支持 100 万 Token 上下文的新模型时,MiniMax 率先冲锋,更新了他们的新旗舰模型:MiniMax-M2.5。更有意思的是,国外网友这段时间对国内 AI 大模型的更新节奏格外关注,他们甚至把这种争先更新的现象称为:Happy Chinese new year!

来自主题: AI资讯
9679 点击    2026-02-12 18:07
硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law

思考token在精不在多。Yuan 3.0 Flash用RAPO+RIRM双杀过度思考,推理token砍75%,网友们惊呼:这就是下一代AI模型的发展方向!

来自主题: AI技术研报
9888 点击    2026-02-11 14:43
ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

在当今的大模型后训练(Post-training)阶段,DPO(直接偏好优化) 凭借其无需训练独立 Reward Model 的优雅设计和高效性,成功取代 PPO 成为业界的 「版本之子」,被广泛应用于 Llama-3、Mistral 等顶流开源模型的对齐中。

来自主题: AI技术研报
6590 点击    2026-02-11 13:58
小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

谁能想到啊,在自回归模型(Autoregressive,AR)当道的现在,一个非主流架构的模型突然杀了回马枪——被长期视为学术玩具的扩散语言模型,直接在复杂编程任务中飙出了892 tokens/秒的速度!

来自主题: AI资讯
9938 点击    2026-02-11 10:47