AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

大模型力大砖飞,让LLaMA3演绎出了新高度: 超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。

来自主题: AI技术研报
6857 点击    2024-04-28 15:03
5亿个token之后,我们得出关于GPT的七条宝贵经验

5亿个token之后,我们得出关于GPT的七条宝贵经验

5亿个token之后,我们得出关于GPT的七条宝贵经验

自 ChatGPT 问世以来,OpenAI 一直被认为是全球生成式大模型的领导者。2023 年 3 月,OpenAI 官方宣布,开发者可以通过 API 将 ChatGPT 和 Whisper 模型集成到他们的应用程序和产品中。在 GPT-4 发布的同时 OpenAI 也开放了其 API。

来自主题: AI资讯
8509 点击    2024-04-19 17:20
Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

Llama架构比不上GPT2?神奇token提升10倍记忆?

近日,朱泽园 (Meta AI) 和李远志 (MBZUAI) 的最新研究《语言模型物理学 Part 3.3:知识的 Scaling Laws》用海量实验(50,000 条任务,总计 4,200,000 GPU 小时)总结了 12 条定律,为 LLM 在不同条件下的知识容量提供了较为精确的计量方法。

来自主题: AI资讯
4364 点击    2024-04-10 19:11
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B

120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B

120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B

Stability AI推出Stable LM 2 12B模型,作为其新模型系列的进一步升级,该模型基于七种语言的2万亿Token进行训练,拥有更多参数和更强性能,据称在某些基准下能超越Llama 2 70B。

来自主题: AI技术研报
7824 点击    2024-04-09 15:44
训出GPT-5短缺20万亿token!OpenAI被曝计划建「数据市场」

训出GPT-5短缺20万亿token!OpenAI被曝计划建「数据市场」

训出GPT-5短缺20万亿token!OpenAI被曝计划建「数据市场」

全网高质量数据集告急!OpenAI、Anthropic等AI公司正在开拓新方法,训练下一代AI模型。

来自主题: AI技术研报
4418 点击    2024-04-09 09:55