AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。

来自主题: AI技术研报
6659 点击    2024-01-31 16:23
哄哄模拟器的完整复盘,火了,但一度让我很发愁

哄哄模拟器的完整复盘,火了,但一度让我很发愁

哄哄模拟器的完整复盘,火了,但一度让我很发愁

24 小时涌入超过 60 万用户,消耗了大模型十几亿 token,发生 2000 万次对话,而事情的起源却是一次吵架。

来自主题: AI资讯
5376 点击    2024-01-22 12:04
解读AI大模型,从了解token开始

解读AI大模型,从了解token开始

解读AI大模型,从了解token开始

我基于结合大量示例及可视化的图形手段给大家科普了AI大模型的相关算法和核心概念。

来自主题: AI资讯
3143 点击    2024-01-13 11:07
为大模型恶补数学,上交开源MathPile语料库,95亿tokens,还可商用

为大模型恶补数学,上交开源MathPile语料库,95亿tokens,还可商用

为大模型恶补数学,上交开源MathPile语料库,95亿tokens,还可商用

当前智能对话模型的发展中,强大的底层模型起着至关重要的作用。这些先进模型的预训练往往依赖于高质量且多样化的语料库,而如何构建这样的语料库,已成为行业中的一大挑战。

来自主题: AI资讯
2115 点击    2024-01-12 17:31
多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

在大型语言模型(LLM)的世界中,处理多轮对话一直是一个挑战。前不久麻省理工 Guangxuan Xiao 等人推出的 StreamingLLM,能够在不牺牲推理速度和生成效果的前提下,可实现多轮对话总共 400 万个 token 的流式输入,22.2 倍的推理速度提升。

来自主题: AI技术研报
6278 点击    2024-01-08 14:02
若愚科技推出九天机器人大脑,大模型总参数规模达130亿

若愚科技推出九天机器人大脑,大模型总参数规模达130亿

若愚科技推出九天机器人大脑,大模型总参数规模达130亿

若愚科技与哈工深联合研发了语言大模型基座---立知和多模态大模型基座---九天,总参数规模达130亿,训练数据超1500B tokens, 能完成多任务、多轮对话、中英翻译、思维链、工具使用等多种类型的指令数据

来自主题: AI资讯
2380 点击    2023-12-26 08:47
5000万tokens大海捞针创纪录,百川智能192K超长上文+搜索增强破解商用难题!解决99%企业定制需求

5000万tokens大海捞针创纪录,百川智能192K超长上文+搜索增强破解商用难题!解决99%企业定制需求

5000万tokens大海捞针创纪录,百川智能192K超长上文+搜索增强破解商用难题!解决99%企业定制需求

就在昨天,百川智能正式发布Baichuan2-Turbo系列API,192K的超长上下文窗口+搜索增强知识库,解决了困扰行业已久的大模型商用落地难问题。

来自主题: AI资讯
4327 点击    2023-12-21 15:33