AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
百亿tokens免费额度,清华系明星AI公司的羊毛薅起来

百亿tokens免费额度,清华系明星AI公司的羊毛薅起来

百亿tokens免费额度,清华系明星AI公司的羊毛薅起来

百亿token补贴,4月起免费!这次的羊毛来自清华系AI公司无问芯穹,企业与个人皆可薅~这家公司成立于2023年5月,目标是打造大模型软硬件一体化最佳算力解决方案。

来自主题: AI资讯
6063 点击    2024-04-01 11:10
大模型预测,下一个token何必是文字?

大模型预测,下一个token何必是文字?

大模型预测,下一个token何必是文字?

太快了太快了…

来自主题: AI资讯
7135 点击    2024-03-30 12:19
Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

【新智元导读】52B的生产级Mamba大模型来了!这个超强变体Jamba刚刚打破世界纪录,它能正面硬刚Transformer,256K超长上下文窗口,吞吐量提升3倍,权重免费下载。

来自主题: AI技术研报
6021 点击    2024-03-29 16:43
详解Latte:去年底上线的全球首个开源文生视频DiT

详解Latte:去年底上线的全球首个开源文生视频DiT

详解Latte:去年底上线的全球首个开源文生视频DiT

随着 Sora 的成功发布,视频 DiT 模型得到了大量的关注和讨论。设计稳定的超大规模神经网络一直是视觉生成领域的研究重点。DiT [1] 的成功为图像生成的规模化提供了可能性。

来自主题: AI资讯
3227 点击    2024-03-27 17:56
讨论下一个token预测时,我们可能正在走进陷阱

讨论下一个token预测时,我们可能正在走进陷阱

讨论下一个token预测时,我们可能正在走进陷阱

自香农在《通信的数学原理》一书中提出「下一个 token 预测任务」之后,这一概念逐渐成为现代语言模型的核心部分。最近,围绕下一个 token 预测的讨论日趋激烈。

来自主题: AI资讯
6502 点击    2024-03-25 17:05
一口气读完《沙丘》 ,零一万物宝藏API正式开箱!酷炫Demo实测,多模态中文图表体验超越GPT-4V

一口气读完《沙丘》 ,零一万物宝藏API正式开箱!酷炫Demo实测,多模态中文图表体验超越GPT-4V

一口气读完《沙丘》 ,零一万物宝藏API正式开箱!酷炫Demo实测,多模态中文图表体验超越GPT-4V

国产大模型独角兽送福利来了,千万token免费用!最近,零一万物API正式开放,三款模型都非常能打,开发者们赶快来开箱吧。零一万物API开放平台,正式向开发者开放了!

来自主题: AI资讯
3229 点击    2024-03-22 16:46
百万token上下文窗口也杀不死向量数据库?CPU笑了

百万token上下文窗口也杀不死向量数据库?CPU笑了

百万token上下文窗口也杀不死向量数据库?CPU笑了

“Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?”

来自主题: AI技术研报
2448 点击    2024-03-19 17:44
不依赖token,字节级模型来了!直接处理二进制数据

不依赖token,字节级模型来了!直接处理二进制数据

不依赖token,字节级模型来了!直接处理二进制数据

微软亚研院等发布bGPT,仍旧基于Transformer,但是模型预测的是下一个字节(byte)。

来自主题: AI技术研报
7576 点击    2024-03-11 18:04
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
4137 点击    2024-03-11 17:31