AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
不用部署,实现大模型切换自由!Token、算力免费薅!咱AI开发者今年整个秋天的奶茶都省出来了!

不用部署,实现大模型切换自由!Token、算力免费薅!咱AI开发者今年整个秋天的奶茶都省出来了!

不用部署,实现大模型切换自由!Token、算力免费薅!咱AI开发者今年整个秋天的奶茶都省出来了!

作为全公司产品做的最好的工程师,同时也是代码写得最好的产品经理,你深刻地知道:搞个靠谱的 AI 应用需要灵感,而好的灵感则需要一个靠谱的 demo 来验证。

来自主题: AI资讯
5340 点击    2024-08-13 18:04
图灵奖得主LeCun加盟AI芯片黑马Groq,估值28亿挑战英伟达!

图灵奖得主LeCun加盟AI芯片黑马Groq,估值28亿挑战英伟达!

图灵奖得主LeCun加盟AI芯片黑马Groq,估值28亿挑战英伟达!

Groq又双叒给英伟达上压力了!不仅之前展现了每秒1256个token的破纪录输出速度,最新获得的一轮6.4亿美元融资更提供了在AI芯片领域挑战英伟达的底气。

来自主题: AI资讯
8395 点击    2024-08-06 14:46
苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

Llama 3.1 刚刚发布,你是否已经尝试了呢?就算你的个人计算机是最近的顶尖配置,运行其中最小的 8B 版本可能也依然会有明显延迟。为了提升模型的推理效率,研究者想出了多种多样的方法,但其中很多都会让模型牺牲一些准确度。

来自主题: AI技术研报
8182 点击    2024-08-02 16:07
【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。

来自主题: AI技术研报
8158 点击    2024-08-02 11:53
上海交通大学温颖教授:打造“通才”Agent|Agent Insights

上海交通大学温颖教授:打造“通才”Agent|Agent Insights

上海交通大学温颖教授:打造“通才”Agent|Agent Insights

解决问题:语言智能体的动作通常由 Token(令牌,语言模型中表示单词/短语/汉字的最小符号单元)序列组成,直接将强化学习用于语言智能体进行策略优化的过程中,一般需要预定义可行动作集合,同时忽略了动作内 Token 细粒度信用分配问题,团队将 Agent 优化从动作层分解到 Token 层,为每个动作内 Token 提供更精细的监督,可在语言动作空间不受约束的环境中实现可控优化复杂度

来自主题: AI资讯
3161 点击    2024-07-29 17:50
ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

随着大型语言模型(LLMs)的进步,多模态大型语言模型(MLLMs)迅速发展。它们使用预训练的视觉编码器处理图像,并将图像与文本信息一同作为 Token 嵌入输入至 LLMs,从而扩展了模型处理图像输入的对话能力。这种能力的提升为自动驾驶和医疗助手等多种潜在应用领域带来了可能性。

来自主题: AI技术研报
8385 点击    2024-07-27 19:33
万亿token!史上最大多模态数据集诞生

万亿token!史上最大多模态数据集诞生

万亿token!史上最大多模态数据集诞生

开源多模态大模型或将开始腾飞。

来自主题: AI技术研报
6740 点击    2024-07-27 19:29