AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
CVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十

CVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十

CVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十

一年一度谷歌学术指标公布了!Nature年年霸榜,而今年与以往不同的是,国际学术顶会的排名大幅提升,CVPR位居第二,超越Science仅次于Nature。另外,TOP 20中,共有五大顶会入选,被引最高论文与大模型时代下前沿技术,一脉相承。

来自主题: AI技术研报
9241 点击    2024-07-11 21:37
CVPR'24 Highlight|一个框架搞定人物动作生成,精细到手部运动

CVPR'24 Highlight|一个框架搞定人物动作生成,精细到手部运动

CVPR'24 Highlight|一个框架搞定人物动作生成,精细到手部运动

近年来,人物动作生成的研究取得了显著的进展,在众多领域,如计算机视觉、计算机图形学、机器人技术以及人机交互等方面获得广泛的关注。然而,现有工作大多只关注动作本身,以场景和动作类别同时作为约束条件的研究依然处于起步阶段。

来自主题: AI技术研报
9136 点击    2024-07-11 20:31
GitHub 8k Star,一作实习生,字节这个大模型成果被苹果选中了

GitHub 8k Star,一作实习生,字节这个大模型成果被苹果选中了

GitHub 8k Star,一作实习生,字节这个大模型成果被苹果选中了

近日,字节跳动大模型团队开发的成果 Depth Anything V2 ,入选苹果公司 Core ML 模型库,目前已呈现在开发者相关页面中。

来自主题: AI技术研报
8745 点击    2024-07-11 20:20
深度解析RAG大模型知识冲突,清华西湖大学港中文联合发布

深度解析RAG大模型知识冲突,清华西湖大学港中文联合发布

深度解析RAG大模型知识冲突,清华西湖大学港中文联合发布

随着人工智能和大型模型技术的迅猛发展,检索增强生成(Retrieval-Augmented Generation, RAG)已成为大型语言模型生成文本的一种主要范式。

来自主题: AI技术研报
9728 点击    2024-07-10 18:43
LeCun新作:神经网络在实践中的灵活性到底有多大?

LeCun新作:神经网络在实践中的灵活性到底有多大?

LeCun新作:神经网络在实践中的灵活性到底有多大?

神经网络拟合数据的能力受哪些因素影响?CNN一定比Transformer差吗?ReLU和SGD还有哪些神奇的作用?近日,LeCun参与的一项工作向我们展示了神经网络在实践中的灵活性。

来自主题: AI技术研报
9014 点击    2024-07-10 18:23
几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

近期,商汤科技 - 南洋理工大学联合 AI 研究中心 S-Lab ,上海人工智能实验室,北京大学与密歇根大学联合提出 DreamGaussian4D(DG4D),通过结合空间变换的显式建模与静态 3D Gaussian Splatting(GS)技术实现高效四维内容生成。

来自主题: AI技术研报
7845 点击    2024-07-09 17:27
像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了

像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了

像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了

生物神经网络有一个重要的特点是高度可塑性,这使得自然生物体具有卓越的适应性,并且这种能力会影响神经系统的突触强度和拓扑结构。

来自主题: AI技术研报
8027 点击    2024-07-09 17:15
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

SelfGNN框架结合了图神经网络和个性化自增强学习,能够捕捉用户行为的多时间尺度模式,降低噪声影响,提升推荐系统鲁棒性。

来自主题: AI技术研报
5984 点击    2024-07-09 16:12
Meta新研究挑战CV领域基操:ViT根本不用patch,用像素做token效果更佳

Meta新研究挑战CV领域基操:ViT根本不用patch,用像素做token效果更佳

Meta新研究挑战CV领域基操:ViT根本不用patch,用像素做token效果更佳

下一代视觉模型会摒弃patch吗?Meta AI最近发表的一篇论文就质疑了视觉模型中局部关系的必要性。他们提出了PiT架构,让Transformer直接学习单个像素而不是16×16的patch,结果在多个下游任务中取得了全面超越ViT模型的性能。

来自主题: AI技术研报
4864 点击    2024-07-09 16:03
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架

来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。

来自主题: AI技术研报
4980 点击    2024-07-09 15:50
大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer

超越Transformer和Mamba的新架构,刚刚诞生了。斯坦福UCSD等机构研究者提出的TTT方法,直接替代了注意力机制,语言模型方法从此或将彻底改变。

来自主题: AI技术研报
6043 点击    2024-07-09 15:41
ChatGPT无法取代人类程序员! IEEE 35页论文测出困难编码正确率仅为0.66%

ChatGPT无法取代人类程序员! IEEE 35页论文测出困难编码正确率仅为0.66%

ChatGPT无法取代人类程序员! IEEE 35页论文测出困难编码正确率仅为0.66%

6月,IEEE刊登了一篇对ChatGPT代码生成任务进行系统评估的论文,数据集就是程序员们最爱的LeetCode题库。研究揭示了LLM在代码任务中出现的潜在问题和能力局限,让我们能够对模型做出进一步改进,并逐渐了解使用ChatGPT写代码的最佳姿势。

来自主题: AI技术研报
4896 点击    2024-07-09 00:54
陶哲轩点破「天机」:不懂数学别想靠ChatGPT飞升!

陶哲轩点破「天机」:不懂数学别想靠ChatGPT飞升!

陶哲轩点破「天机」:不懂数学别想靠ChatGPT飞升!

冲锋在AI辅助数学研究第一线的陶哲轩,近日又有「神总结」:ChatGPT提升的,是我们在编码、图表等次要任务上的能力;而真要搞好数学研究,基础不扎实的话,AI也是没用的。

来自主题: AI技术研报
6698 点击    2024-07-09 00:41
相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision

相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision

相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision

现实中,机器人收据收集可以通过远程操控实现。来自UCSD、MIT的华人团队开发了一个通用框架Open-TeleVision,可以让你身临其境操作机器人,即便相隔3000英里之外。

来自主题: AI技术研报
8805 点击    2024-07-07 16:55
破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍

破解ChatGPT惊人耗电!DeepMind新算法训练提效13倍,能耗暴降10倍

ChatGPT能耗惊人,该怎么解?谷歌DeepMind新算法JEST问世,让LLM训练的迭代次数降低13倍,计算量减少10倍,或将重塑AI未来。

来自主题: AI技术研报
8853 点击    2024-07-07 16:42
RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了

RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了

RAGFlow开源Star量破万,是时候思考下RAG的未来是什么了

搜索技术是计算机科学中最难的技术挑战之一,迄今只有很少一部分商业化产品可以把这个问题解决得很好。大多数商品并不需要很强的搜索,因为这和用户体验并没有直接关系。

来自主题: AI技术研报
10504 点击    2024-07-06 19:09
Adam有了mini版:内存占用少一半,吞吐量提升50%

Adam有了mini版:内存占用少一半,吞吐量提升50%

Adam有了mini版:内存占用少一半,吞吐量提升50%

在训练大型语言模型(LLM)时,Adam(W) 基本上已经成为了人们默认使用的优化器。

来自主题: AI技术研报
8805 点击    2024-07-06 19:01
谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力

谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力

谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力

近日,来自谷歌DeepMind的研究人员,推出了专门用于评估大语言模型时间推理能力的基准测试——Test of Time(ToT),从两个独立的维度分别考察了LLM的时间理解和算术能力。

来自主题: AI技术研报
9719 点击    2024-07-05 16:35