AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

打破MoE训练效率与性能瓶颈,华为盘古稀疏大模型全新架构LocMoE出炉

2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。

来自主题: AI技术研报
10146 点击    2024-02-04 13:59
中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了

中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了

中文创意写作能力超GPT-4,「最会写」的中文大模型Weaver来了

ChatGPT 等通用大模型支持的功能成百上千,但是对于普通日常用户来说,智能写作一定是最常见的,也是大模型最能真正帮上忙的使用场景之一。

来自主题: AI技术研报
5719 点击    2024-02-04 13:56
图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东

作为图领域首个通用框架,OFA实现了训练单一GNN模型即可解决图领域内任意数据集、任意任务类型、任意场景的分类任务。

来自主题: AI技术研报
8510 点击    2024-02-03 19:30
陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

在软件工程顶会ESEC/FSE上,来自马萨诸塞大学、谷歌和伊利诺伊大学厄巴纳-香槟分校(UIUC)的研究人员发表了新的成果,使用LLM解决自动化定理证明问题。

来自主题: AI技术研报
4399 点击    2024-02-03 14:55
史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训

艾伦人工智能研究所等5机构最近公布了史上最全的开源模型「OLMo」,公开了模型的模型权重、完整训练代码、数据集和训练过程,为以后开源社区的工作设立了新的标杆。

来自主题: AI技术研报
7692 点击    2024-02-03 14:45
登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来

登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来

登Nature子刊,滑铁卢大学团队评论「量子计算机+大语言模型」当下与未来

加拿大滑铁卢大学的研究人员在《Nature Computational Science》发表题为《Language models for quantum simulation》 的 Perspective 文章,强调了语言模型在构建量子计算机方面所做出的贡献,并讨论了它们在量子优势竞争中的未来角色。

来自主题: AI技术研报
5750 点击    2024-02-03 13:04
像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

像人类一样在批评中学习成长,1317条评语让LLaMA2胜率飙升30倍

有的大模型对齐方法包括基于示例的监督微调(SFT)和基于分数反馈的强化学习(RLHF)。然而,分数只能反应当前回复的好坏程度,并不能明确指出模型的不足之处。相较之下,我们人类通常是从语言反馈中学习并调整自己的行为模式。

来自主题: AI技术研报
5975 点击    2024-02-03 12:52
击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了

击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了

击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了

一周前,OpenAI 给广大用户发放福利,在下场修复 GPT-4 变懒的问题后,还顺道上新了 5 个新模型,其中就包括更小且高效的 text-embedding-3-small 嵌入模型。

来自主题: AI技术研报
5903 点击    2024-02-03 12:47
一句指令自动玩手机,网上冲浪神器Mobile-Agent来了

一句指令自动玩手机,网上冲浪神器Mobile-Agent来了

一句指令自动玩手机,网上冲浪神器Mobile-Agent来了

一直以来,让 AI 成为手机操作助手都是一项颇具挑战性的任务。在该场景下,AI 需要根据用户的要求自动操作手机,逐步完成任务。

来自主题: AI技术研报
8907 点击    2024-02-03 12:44
UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

来自UCLA的华人团队提出一种全新的LLM自我对弈系统,能够让LLM自我合成数据,自我微调提升性能,甚至超过了用GPT-4作为专家模型指导的效果。

来自主题: AI技术研报
6902 点击    2024-02-02 17:27
匿名论文提出奇招!增强大模型长文本能力居然还能这么做

匿名论文提出奇招!增强大模型长文本能力居然还能这么做

匿名论文提出奇招!增强大模型长文本能力居然还能这么做

来看一个奇妙新解:和长度外推等方法使用KV缓存的本质不同,它用模型的参数来存储大量上下文信息。

来自主题: AI技术研报
6888 点击    2024-02-02 16:12
无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

在 AI 赛道中,与动辄上千亿参数的模型相比,最近,小模型开始受到大家的青睐。比如法国 AI 初创公司发布的 Mistral-7B 模型,其在每个基准测试中,都优于 Llama 2 13B,并且在代码、数学和推理方面也优于 LLaMA 1 34B。

来自主题: AI技术研报
9919 点击    2024-02-02 11:50
最强开源多模态生成模型MM-Interleaved:首创特征同步器

最强开源多模态生成模型MM-Interleaved:首创特征同步器

最强开源多模态生成模型MM-Interleaved:首创特征同步器

过去几个月中,随着 GPT-4V、DALL-E 3、Gemini 等重磅工作的相继推出,「AGI 的下一步」—— 多模态生成大模型迅速成为全球学者瞩目的焦点。

来自主题: AI技术研报
7836 点击    2024-02-02 11:39
多模态LLM多到看不过来?先看这26个SOTA模型吧

多模态LLM多到看不过来?先看这26个SOTA模型吧

多模态LLM多到看不过来?先看这26个SOTA模型吧

多模态大型语言模型进展如何?盘点 26 个当前最佳多模态大型语言模型。

来自主题: AI技术研报
8133 点击    2024-01-31 16:26
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B

对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。

来自主题: AI技术研报
7339 点击    2024-01-31 16:23
GPT-4不服被Bard反超:最新模型已入场

GPT-4不服被Bard反超:最新模型已入场

GPT-4不服被Bard反超:最新模型已入场

“大模型排位赛”权威榜单Chatbot Arena刷新:谷歌Bard超越GPT-4,排名位居第二,仅次于GPT-4 Turbo。

来自主题: AI技术研报
7073 点击    2024-01-31 11:42
准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源

准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源

准确率不足20%,GPT-4V/Gemini竟看不懂漫画!首个图像序列基准测试开源

马里兰大学联合北卡教堂山发布首个专为多模态大语言模型(MLLM)设计的图像序列的基准测试Mementos,涵盖了真实世界图像序列、机器人图像序列,以及动漫图像序列,用4761个多样化图像序列的集合,全面测试MLLM对碎散图像序列的推理能力!

来自主题: AI技术研报
2601 点击    2024-01-31 11:19
这款国产免费编程工具火了!清华博士团队开发,响应延迟短、准确率高

这款国产免费编程工具火了!清华博士团队开发,响应延迟短、准确率高

这款国产免费编程工具火了!清华博士团队开发,响应延迟短、准确率高

非十科技推出了一款基于自研代码大模型打造的 AI 代码助手 ——Fitten Code,它可以帮助程序员更迅捷、更准确、更高质量地完成编码任务,大幅提升编码效率,并且向用户免费开放使用!

来自主题: AI技术研报
9936 点击    2024-01-30 13:56
大模型时代,南大周志华埋头做学件,最新论文上线

大模型时代,南大周志华埋头做学件,最新论文上线

大模型时代,南大周志华埋头做学件,最新论文上线

南京大学周志华教授提出的「学件」范式通过模型 + 规约的思路构建学件市场(现称学件基座系统),让用户根据需求从中统一地选择和部署模型。如今学件范式迎来了首个开源的基础平台 —— 北冥坞(Beimingwu)。

来自主题: AI技术研报
7378 点击    2024-01-30 13:51
大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增

删除权重矩阵的一些行和列,让 LLAMA-2 70B 的参数量减少 25%,模型还能保持 99% 的零样本任务性能,同时计算效率大大提升。这就是微软 SliceGPT 的威力。

来自主题: AI技术研报
3677 点击    2024-01-30 13:43
从零手搓MoE大模型,大神级教程来了

从零手搓MoE大模型,大神级教程来了

从零手搓MoE大模型,大神级教程来了

Hugging Face上有一位机器学习大神,分享了如何从头开始建立一套完整的MoE系统。

来自主题: AI技术研报
5587 点击    2024-01-29 16:30
AI也造代码屎山!研究发现GitHub Copilot代码可维护性差,偏爱“无脑重写”而非重构复用已有代码

AI也造代码屎山!研究发现GitHub Copilot代码可维护性差,偏爱“无脑重写”而非重构复用已有代码

AI也造代码屎山!研究发现GitHub Copilot代码可维护性差,偏爱“无脑重写”而非重构复用已有代码

一家名为GitClear的公司分析了近四年超过1.5亿行代码后发现,随着GitHub Copilot工具的加入,代码流失率(即代码写入后不久又被返工修改、删除的情况)出现了显著上升: 2023年为7.1%,而2020年时仅为3.3%,翻了一番。

来自主题: AI技术研报
9809 点击    2024-01-29 16:25