AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍

ChatGPT能耗惊人,该怎么解?谷歌DeepMind新算法JEST问世,让LLM训练的迭代次数降低13倍,计算量减少10倍,或将重塑AI未来。

来自主题: AI技术研报
8856 点击    2024-07-07 16:42
RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了

RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了

RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了

搜索技术是计算机科学中最难的技术挑战之一,迄今只有很少一部分商业化产品可以把这个问题解决得很好。大多数商品并不需要很强的搜索,因为这和用户体验并没有直接关系。

来自主题: AI技术研报
10507 点击    2024-07-06 19:09
Adam有了mini版:内存占用少一半,吞吐量提升50%

Adam有了mini版:内存占用少一半,吞吐量提升50%

Adam有了mini版:内存占用少一半,吞吐量提升50%

在训练大型语言模型(LLM)时,Adam(W) 基本上已经成为了人们默认使用的优化器。

来自主题: AI技术研报
8807 点击    2024-07-06 19:01
谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力

谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力

谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力

近日,来自谷歌DeepMind的研究人员,推出了专门用于评估大语言模型时间推理能力的基准测试——Test of Time(ToT),从两个独立的维度分别考察了LLM的时间理解和算术能力。

来自主题: AI技术研报
9720 点击    2024-07-05 16:35
GPT-4o竟是「道德专家」?解答50道难题,比纽约大学教授更受欢迎

GPT-4o竟是「道德专家」?解答50道难题,比纽约大学教授更受欢迎

GPT-4o竟是「道德专家」?解答50道难题,比纽约大学教授更受欢迎

大语言模型有道德推理能力吗?不仅有,甚至可能在道德推理方面超越普通人和专家学者!最新研究发现:GPT-4o针对道德难题给出的建议比人类专家更让人信服。

来自主题: AI技术研报
9689 点击    2024-07-05 16:30
「吗喽」在想啥?AI读心术精准重建猕猴大脑图像,网友:我们成三体人了

「吗喽」在想啥?AI读心术精准重建猕猴大脑图像,网友:我们成三体人了

「吗喽」在想啥?AI读心术精准重建猕猴大脑图像,网友:我们成三体人了

荷兰拉德布德大学的研究团队通过定位大脑注意力机制,在AI「读心术」领域精确生成图像,能够依据大脑活动记录极为准确地重建猕猴所看到的内容。网友:这是人机融合的最终目标。

来自主题: AI技术研报
9186 点击    2024-07-05 16:27
国产动漫视频AI火了!二次元老婆随意捏,哥特、梦幻、机甲一键get

国产动漫视频AI火了!二次元老婆随意捏,哥特、梦幻、机甲一键get

国产动漫视频AI火了!二次元老婆随意捏,哥特、梦幻、机甲一键get

视频生成赛道又起新秀,而且还是二次元定制版!稳定产出电影级画面,一键文/图生成视频,即使是「手残党」也能复刻自己喜欢的动漫作品了。

来自主题: AI技术研报
10493 点击    2024-07-05 15:07
突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

突破不可解释性!视频异常新检测框架精度90.67%拿下SOTA|华科&百度&密歇根大学

大模型当上福尔摩斯,学会对视频异常进行检测了。 来自华中科技大学、百度、密歇根大学的研究团队,提出了一种可解释性的视频异常检测框架,名为Holmes-VAD。

来自主题: AI技术研报
6847 点击    2024-07-05 01:04
Kimi论文自曝推理架构,80%流量都靠它承担

Kimi论文自曝推理架构,80%流量都靠它承担

Kimi论文自曝推理架构,80%流量都靠它承担

月之暗面和清华KVCache.ai团队的最新论文,首次揭秘了Kimi背后的推理架构! 要知道Kimi是国产大模型的当红炸子鸡,火到可以说从来没缺过流量,甚至还经常出现过载。

来自主题: AI技术研报
9043 点击    2024-07-05 01:00
全新TextGrad框架:用GPT-4o作引擎,自动优化端到端任务

全新TextGrad框架:用GPT-4o作引擎,自动优化端到端任务

全新TextGrad框架:用GPT-4o作引擎,自动优化端到端任务

该文章的作者团队来自于斯坦福大学,共同第一作者团队Mert Yuksekgonul,Federico Bianchi, Joseph Boen, Sheng Liu, Zhi Huang

来自主题: AI技术研报
8905 点击    2024-07-05 00:21
少即是多!10亿参数「小巨人」击败ChatGPT

少即是多!10亿参数「小巨人」击败ChatGPT

少即是多!10亿参数「小巨人」击败ChatGPT

只有10亿参数的xLAM-1B在特定任务中击败了LLM霸主:OpenAI的GPT-3.5 Turbo和Anthropic的Claude-3 Haiku。上个月刚发布的苹果智能模型只有30亿参数,就连奥特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是AI的未来吗?

来自主题: AI技术研报
7015 点击    2024-07-04 16:25
ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

ICML 2024高分论文 | 零阶优化器微调大模型,大幅降低内存

开源大语言模型(LLM)百花齐放,为了让它们适应各种下游任务,微调(fine-tuning)是最广泛采用的基本方法。基于自动微分技术(auto-differentiation)的一阶优化器(SGD、Adam 等)虽然在模型微调中占据主流,然而在模型越来越大的今天,却带来越来越大的显存压力。

来自主题: AI技术研报
10270 点击    2024-07-04 13:35
参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

参数少80%,效果仍超LoRA!上交大&上海AI Lab推出高效微调框架FLoRA

为了让大模型在特定任务、场景下发挥更大作用,LoRA这样能够平衡性能和算力资源的方法正在受到研究者们的青睐。

来自主题: AI技术研报
10285 点击    2024-07-04 11:05
60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成

60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成

60秒直出3D内容,纹理逼真!Meta最新3D Gen模型实现60倍速生成

Meta的GenAI团队在最新研究中介绍了Meta 3D Gen模型:可以在不到1分钟的时间内从文本直接端到端生成3D资产。

来自主题: AI技术研报
10079 点击    2024-07-03 16:15
大模型性能掺水严重?北大交出答卷:交互评估+动态出题,死记硬背也没用 | ACL 2024

大模型性能掺水严重?北大交出答卷:交互评估+动态出题,死记硬背也没用 | ACL 2024

大模型性能掺水严重?北大交出答卷:交互评估+动态出题,死记硬背也没用 | ACL 2024

当前大语言模型(LLM)的评估方法受到数据污染问题的影响,导致评估结果被高估,无法准确反映模型的真实能力。北京大学等提出的KIEval框架,通过知识基础的交互式评估,克服了数据污染的影响,更全面地评估了模型在知识理解和应用方面的能力。

来自主题: AI技术研报
5410 点击    2024-07-02 18:25
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络通常由三部分组成:线性层、非线性层(激活函数)和标准化层。线性层是网络参数的主要存在位置,非线性层提升神经网络的表达能力,而标准化层(Normalization)主要用于稳定和加速神经网络训练,很少有工作研究它们的表达能力,例如,以Batch Normalization为例

来自主题: AI技术研报
5808 点击    2024-07-02 17:38
哈工大提出创新迭代推理框架 DPE-MNER :充分发挥多模态表示潜力

哈工大提出创新迭代推理框架 DPE-MNER :充分发挥多模态表示潜力

哈工大提出创新迭代推理框架 DPE-MNER :充分发挥多模态表示潜力

多模态命名实体识别,作为构建多模态知识图谱的一项基础而关键任务,要求研究者整合多种模态信息以精准地从文本中提取命名实体。尽管以往的研究已经在不同层次上探索了多模态表示的整合方法,但在将这些多模态表示融合以提供丰富上下文信息、进而提升多模态命名实体识别的性能方面,它们仍显不足。

来自主题: AI技术研报
4841 点击    2024-07-02 17:35
ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

ML工程师一次微调7个模型,击败OpenAI GPT-4

「微调你的模型,获得比GPT-4更好的性能」不只是说说而已,而是真的可操作。最近,一位愿意动手的ML工程师就把几个开源LLM调教成了自己想要的样子。

来自主题: AI技术研报
8878 点击    2024-07-02 15:26
【深度】通向AGI的钥匙:10万H100超级AI算力集群

【深度】通向AGI的钥匙:10万H100超级AI算力集群

【深度】通向AGI的钥匙:10万H100超级AI算力集群

10万张H100卡构成的超级AI算力集群就像是现代人类文明的奇观,是人类通向AGI的钥匙。​AI时代的军备竞赛已经拉开帷幕,赌注是天量的Capex支出,胜者则有机会成为AI时代的造物主。

来自主题: AI技术研报
10429 点击    2024-07-02 14:58
8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

8B尺寸达到GPT-4级性能!北大等提出医疗专家模型训练方法

本文研究发现大语言模型在持续预训练过程中出现目标领域性能先下降再上升的现象。

来自主题: AI技术研报
9028 点击    2024-07-02 11:27
ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好

本文介绍了一篇语言模型对齐研究的论文,由瑞士、英国、和法国的三所大学的博士生和 Google DeepMind 以及 Google Research 的研究人员合作完成。

来自主题: AI技术研报
9266 点击    2024-07-01 15:17
等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了

人工智能(AI)在过去十年里取得了长足进步,特别是在自然语言处理和计算机视觉领域。然而,如何提升 AI 的认知能力和推理能力,仍然是一个巨大的挑战。

来自主题: AI技术研报
9002 点击    2024-07-01 15:13