AI资讯新闻榜单内容搜索-大模型推理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大模型推理
自动学会工具解题,RL扩展催化奥数能力激增17%

自动学会工具解题,RL扩展催化奥数能力激增17%

自动学会工具解题,RL扩展催化奥数能力激增17%

在大模型推理能力提升的探索中,工具使用一直是克服语言模型计算局限性的关键路径。不过,当今的大模型在使用工具方面还存在一些局限,比如预先确定了工具的使用模式、限制了对最优策略的探索、实现透明度不足等。

来自主题: AI技术研报
9003 点击    2025-04-02 10:09
砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

砍掉99%采样成本!腾讯AI Lab提出大模型无监督训练新技术

只要微调模型生成的前8-32个词,就能让大模型推理能力达到和传统监督训练一样的水平?

来自主题: AI技术研报
6639 点击    2025-03-12 13:41
中国团队首次夺魁!无问芯穹FlightVGM获FPGA'25最佳论文,峰值算力超GPU21倍

中国团队首次夺魁!无问芯穹FlightVGM获FPGA'25最佳论文,峰值算力超GPU21倍

中国团队首次夺魁!无问芯穹FlightVGM获FPGA'25最佳论文,峰值算力超GPU21倍

国际可重构计算领域顶级会议 ——FPGA 2025 在落幕之时传来消息,今年的最佳论文颁发给了无问芯穹和上交、清华共同提出的视频生成大模型推理 IP 工作 FlightVGM,这是 FPGA 会议首次将该奖项授予完全由中国大陆科研团队主导的研究工作,同时也是亚太国家团队首次获此殊荣。

来自主题: AI资讯
8293 点击    2025-03-03 10:45
AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

Falcon 方法是一种增强半自回归投机解码框架,旨在增强 draft model 的并行性和输出质量,以有效提升大模型的推理速度。Falcon 可以实现约 2.91-3.51 倍的加速比,在多种数据集上获得了很好的结果,并已应用到翼支付多个实际业务中。

来自主题: AI技术研报
6058 点击    2025-01-08 14:38
Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

大模型的的发布固然令人欣喜,但是各类测评也是忙坏了众多 AI 工作者。大模型推理的幻觉问题向来是 AI 测评的重灾区,诸如 9.9>9.11 的经典幻觉问题,各大厂家恨不得直接把问题用 if-else 写进来。

来自主题: AI技术研报
7217 点击    2024-12-30 10:39
大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

改进KV缓存压缩,大模型推理显存瓶颈迎来新突破—— 中科大研究团队提出Ada-KV,通过自适应预算分配算法来优化KV缓存的驱逐过程,以提高推理效率。

来自主题: AI技术研报
3361 点击    2024-11-02 19:10
KV Cache:图解大模型推理加速方法

KV Cache:图解大模型推理加速方法

KV Cache:图解大模型推理加速方法

KV Cache 是大模型推理性能优化的一个常用技术,该技术可以在不影响任何计算精度的前提下,通过空间换时间的思想,提高推理性能。

来自主题: AI资讯
7184 点击    2024-09-03 10:46