AI资讯新闻榜单内容搜索-大语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大语言模型
深度|No Priors谈大模型未来市场趋势:小模型,高性能

深度|No Priors谈大模型未来市场趋势:小模型,高性能

深度|No Priors谈大模型未来市场趋势:小模型,高性能

大语言模型市场的整合与差异:大语言模型市场存在整合的趋势。一方面,人工智能发展的基础产业是资本密集型的,市场整合对于大语言模型市场的资本支撑是必要的。另一方面,为尽可能提高算法的泛化能力,单个大语言模型也需要集成多种创新功能。市场集中度的提高使得企业需要进一步考虑大语言模型的差异化。

来自主题: AI资讯
9199 点击    2024-10-08 18:43
整合海量公共数据,谷歌开源AI统计学专家DataGemma

整合海量公共数据,谷歌开源AI统计学专家DataGemma

整合海量公共数据,谷歌开源AI统计学专家DataGemma

准确的统计数据、时效性强的信息,一直是大语言模型产生幻觉的重灾区。谷歌在近日推出了自己筹划已久的大型数据库Data Commons,以及在此基础上诞生的大模型DataGemma。

来自主题: AI资讯
5644 点击    2024-10-03 13:25
端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

端到端优化所有能力,字节跳动提出强化学习LLM Agent框架AGILE

大语言模型(Large Language Models, LLMs)的强大能力推动了 LLM Agent 的迅速发展。围绕增强 LLM Agent 的能力,近期相关研究提出了若干关键组件或工作流。然而,如何将核心要素集成到一个统一的框架中,能够进行端到端优化,仍然是一个亟待解决的问题。

来自主题: AI资讯
8020 点击    2024-09-30 16:06
中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测任务超1年 | TPAMI 2024

中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测任务超1年 | TPAMI 2024

中科大成果斩获图学习“世界杯”单项冠军,霸榜蛋白质功能预测任务超1年 | TPAMI 2024

中科大成果,拿下图学习“世界杯”单项冠军! 由中科大王杰教授团队(MIRA Lab)提出的首个具有最优性保证的大语言模型和图神经网络分离训练框架,在国际顶级图学习标准OGB(Open Graph Benchmark)挑战赛的蛋白质功能预测任务上斩获「第一名」,该纪录从2023年9月27日起保持至今。

来自主题: AI资讯
4463 点击    2024-09-30 14:34
迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

迈向多语言医疗大模型:大规模预训练语料、开源模型与全面基准测试

在医疗领域中,大语言模型已经有了广泛的研究。然而,这些进展主要依赖于英语的基座模型,并受制于缺乏多语言医疗专业数据的限制,导致当前的医疗大模型在处理非英语问题时效果不佳。

来自主题: AI技术研报
9394 点击    2024-09-29 22:38
长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx

长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx

长短大小样样精通!原始分辨率、超长视频输入:更灵活的全开源多模态架构Oryx

视觉数据的种类极其多样,囊括像素级别的图标到数小时的视频。现有的多模态大语言模型(MLLM)通常将视觉输入进行分辨率的标准化或进行动态切分等操作,以便视觉编码器处理。然而,这些方法对多模态理解并不理想,在处理不同长度的视觉输入时效率较低。

来自主题: AI资讯
4149 点击    2024-09-29 14:44
首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

首个Mamba+Transformer混合架构多模态大模型来了,实现单卡千图推理

扩展多模态大语言模型(MLLMs)的长上下文能力对于视频理解、高分辨率图像理解以及多模态智能体至关重要。这涉及一系列系统性的优化,包括模型架构、数据构建和训练策略,尤其要解决诸如随着图像增多性能下降以及高计算成本等挑战。

来自主题: AI技术研报
8831 点击    2024-09-21 18:19
从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了

从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了

从架构、工艺到能效表现,全面了解LLM硬件加速,这篇综述就够了

大语言模型(LLM)的发展同时往往伴随着硬件加速技术的进化,本文对使用 FPGA、ASIC 等芯片的模型性能、能效表现来了一次全面概览。

来自主题: AI资讯
11007 点击    2024-09-20 13:29
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一

华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一

华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一

大语言模型(如 GPT-4)具备强大的语言处理能力,但其独立运作时仍存在局限性,如无法进行复杂计算,获取不到实时信息,难以提供专业定制化功能等。而大语言模型的工具调用能力使其不仅限于文字处理,更能提供全面、实时、精确的服务,极大地扩展了其应用范围和实际价值。

来自主题: AI技术研报
8647 点击    2024-09-15 14:32