AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
日均tokens涨320倍,MaaS主导产业模式,火山引擎从GenAI领跑到MaaS加速

日均tokens涨320倍,MaaS主导产业模式,火山引擎从GenAI领跑到MaaS加速

日均tokens涨320倍,MaaS主导产业模式,火山引擎从GenAI领跑到MaaS加速

如果2023年给大模型的关键词是席卷,那么在2024,这个关键词应该是渗透。最常用的软件、手机PC本身、甚至厨卫/电源开源,都在被AI重塑。主观感受中,这一年,AI更加强大,以前所未有的速度嵌入各行各业。

来自主题: AI资讯
6887 点击    2025-01-20 16:46
MiniMax开源4M超长上下文新模型!性能比肩DeepSeek-v3、GPT-4o

MiniMax开源4M超长上下文新模型!性能比肩DeepSeek-v3、GPT-4o

MiniMax开源4M超长上下文新模型!性能比肩DeepSeek-v3、GPT-4o

开源模型上下文窗口卷到超长,达400万token! 刚刚,“大模型六小强”之一MiniMax开源最新模型—— MiniMax-01系列,包含两个模型:基础语言模型MiniMax-Text-01、视觉多模态模型MiniMax-VL-01。

来自主题: AI技术研报
7075 点击    2025-01-15 15:10
仅缩小视觉Token位置编码间隔,轻松让多模态大模型理解百万Token!清华大学,香港大学,上海AI Lab新突破

仅缩小视觉Token位置编码间隔,轻松让多模态大模型理解百万Token!清华大学,香港大学,上海AI Lab新突破

仅缩小视觉Token位置编码间隔,轻松让多模态大模型理解百万Token!清华大学,香港大学,上海AI Lab新突破

随着语言大模型的成功,视觉 - 语言多模态大模型 (Vision-Language Multimodal Models, 简写为 VLMs) 发展迅速,但在长上下文场景下表现却不尽如人意,这一问题严重制约了多模态模型在实际应用中的潜力。

来自主题: AI技术研报
7126 点击    2025-01-15 14:23
一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

一行代码Post-Train任意长序列!360智脑开源360-LLaMA-Factory

大模型长序列的处理能力已越来越重要,像复杂长文本任务、多帧视频理解任务、以及 OpenAI 近期发布的 o1、o3 系列模型的高计算量模式,需要处理的输入 + 输出总 token 数从几万量级上升到了几百万量级。

来自主题: AI技术研报
7309 点击    2025-01-11 13:45
科研界的"哥白尼时刻"已到来!AMD的Agent Laboratory能自己查文献、写论文、整代码

科研界的"哥白尼时刻"已到来!AMD的Agent Laboratory能自己查文献、写论文、整代码

科研界的"哥白尼时刻"已到来!AMD的Agent Laboratory能自己查文献、写论文、整代码

发表于昨天的论文《Agent Laboratory: Using LLM Agents as Research Assistants》对于科研界具有划时代意义,过去几周才能完成的科研任务现在仅需20分钟到一两个小时左右(不同LLM),花费2-13个美金的Token即可完成!

来自主题: AI技术研报
3159 点击    2025-01-10 11:13
文本-图像全局对比对齐与 Token-Patch 级别的局部对齐

文本-图像全局对比对齐与 Token-Patch 级别的局部对齐

文本-图像全局对比对齐与 Token-Patch 级别的局部对齐

最近,我们团队的一位工程师在研究类 ColPali 模型时,受到启发,用新近发布的 jina-clip-v2 模型做了个颇具洞察力的可视化实验。

来自主题: AI资讯
8567 点击    2025-01-10 10:48
Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

Tokenization,再见!Meta提出大概念模型LCM,1B模型干翻70B?

Meta提出大概念模型,抛弃token,采用更高级别的「概念」在句子嵌入空间上建模,彻底摆脱语言和模态对模型的制约。

来自主题: AI技术研报
9283 点击    2025-01-07 18:11
从2019年到现在,是时候重新审视Tokenization了

从2019年到现在,是时候重新审视Tokenization了

从2019年到现在,是时候重新审视Tokenization了

2019 年问世的 GPT-2,其 tokenizer 使用了 BPE 算法,这种算法至今仍很常见,但这种方式是最优的吗?来自 HuggingFace 的一篇文章给出了解释。

来自主题: AI技术研报
8120 点击    2025-01-04 14:20