
中国大模型价格战背后的真相
中国大模型价格战背后的真相5 月 21 日上午,阿里云在其例行峰会上,意外地释放了大降价的消息:通义千问 GPT-4 级主力模型推理输入价格降至 0.5 元/百万 tokens,直降 97%。
5 月 21 日上午,阿里云在其例行峰会上,意外地释放了大降价的消息:通义千问 GPT-4 级主力模型推理输入价格降至 0.5 元/百万 tokens,直降 97%。
两周前,OpenBMB开源社区联合面壁智能发布领先的开源大模型「Eurux-8x22B 」。相比口碑之作 Llama3-70B,Eurux-8x22B 发布时间更早,综合性能相当,尤其是拥有更强的推理性能——刷新开源大模型推理性能 SOTA,堪称开源大模型中「理科状元」。
“预测下一个token”被认为是大模型的基本范式,一次预测多个tokens又会怎样?
传统的 3D 重建算法需要不同视角拍摄的多张图片作为输入从而重建出 3D 场景。近年来,有相当多的工作尝试从单张图片构建 3D 场景。然而,绝大多数此类工作都依赖生成式模型(如 Stable Diffusion),换句话说,此类工作仍然需要通过预训练的生成式模型推理场景中的 3D 信息。
大模型在今年的落地,除了对用 AI 对已有业务进行改造和提效外,算力和推理的优化,可能是另外一项重要的实践了。这在腾讯的两个完全不同的业务上有着明显的体现。
【新智元导读】从今天起,千元级就能解锁专属大模型了!这款搭载首颗纯国产14nm Chiplet大模型推理芯片的「深目」AI模盒,可以轻松实现百亿级参数多模态大模型的推理+微调。各种碎片化长尾算法,直接秒级生成!
推测解码(Speculative Decoding)是谷歌等机构在 2022 年发现的大模型推理加速方法。它可以在不损失生成效果前提下,获得 3 倍以上的加速比。GPT-4 泄密报告也提到 OpenAI 线上模型推理使用了它。
谷歌&南加大推出最新研究“自我发现”(Self-Discover),重新定义了大模型推理范式。与已成行业标准的思维链(CoT)相比,新方法不仅让模型在面对复杂任务时表现更佳,还把同等效果下的推理成本压缩至1/40。
风投烧完之后,哪些大模型创业公司会开始盈利?
去年,在加速大语言模型推理层面,我们迎来了一个比推测解码更高效的解决方案 —— 普林斯顿、UIUC 等机构提出的 Medusa。如今,关于 Medusa 终于有了完整技术论文,还提供了新的版本。