AI资讯新闻榜单内容搜索-大模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大模型
中国大模型在迪拜卷起来了

中国大模型在迪拜卷起来了

中国大模型在迪拜卷起来了

在全球最著名的科技峰会之一GITEX上,我们见到了来自中国的大模型,他们分别来自华为、腾讯、智谱AI、科大讯飞以及Soul App,在全球市场都在积极拥抱AI热潮的当下,他们已经率先掀起了中东淘金热。

来自主题: AI资讯
5005 点击    2024-10-22 09:07
追 OpenAI 的人

追 OpenAI 的人

追 OpenAI 的人

智谱对OpenAI的追赶,至少持续了4年。这是人工智能大模型爆发的4年。

来自主题: AI资讯
9241 点击    2024-10-21 19:19
突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

突破视频多模态大模型瓶颈!「合成数据」立大功,项目已开源

视频多模态大模型(LMMs)的发展受限于从网络获取大量高质量视频数据。为解决这一问题,我们提出了一种替代方法,创建一个专为视频指令跟随任务设计的高质量合成数据集,名为 LLaVA-Video-178K。

来自主题: AI技术研报
4737 点击    2024-10-21 14:33
清华开源混合精度推理系统MixQ,实现大模型近无损量化并提升推理吞吐

清华开源混合精度推理系统MixQ,实现大模型近无损量化并提升推理吞吐

清华开源混合精度推理系统MixQ,实现大模型近无损量化并提升推理吞吐

一键部署LLM混合精度推理,端到端吞吐比AWQ最大提升6倍! 清华大学计算机系PACMAN实验室发布开源混合精度推理系统——MixQ。 MixQ支持8比特和4比特混合精度推理,可实现近无损的量化部署并提升推理的吞吐。

来自主题: AI资讯
4305 点击    2024-10-21 14:15
低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

低内存占用也能实现满血训练?!北理北大港中文MMLab推出Fira训练框架

内存占用小,训练表现也要好……大模型训练成功实现二者兼得。 来自北理、北大和港中文MMLab的研究团队提出了一种满足低秩约束的大模型全秩训练框架——Fira,成功打破了传统低秩方法中内存占用与训练表现的“非此即彼”僵局。

来自主题: AI技术研报
4780 点击    2024-10-21 10:58
开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

开源两周4.7k标星,港大LightRAG大幅降低大模型问答成本,全面理解复杂实体依赖关系

简单高效的大模型检索增强系统LightRAG,香港大学黄超团队最新研究成果。 开源两周时间在GitHub上获得将近5k标星,并登上趋势榜。

来自主题: AI技术研报
5525 点击    2024-10-21 10:23
硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探

硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探

硅谷深思:GPT应用迟未爆发,大模型泡沫根源初探

2022年诞生的ChatGPT,已经在相当程度上实现了大模型的Scaling law(尺度定律)和通用能力涌现。

来自主题: AI资讯
4348 点击    2024-10-20 17:28