AI资讯新闻榜单内容搜索-神经网络

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 神经网络
AI顶会ICML收了一篇论文:没算法没实验

AI顶会ICML收了一篇论文:没算法没实验

AI顶会ICML收了一篇论文:没算法没实验

没有算法没有实验,从2610篇收录论文中脱颖而出,成为唯一一篇纯理论入选2024 ICML Spotlight的论文。

来自主题: AI技术研报
8740 点击    2024-08-04 14:14
可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

本文首先简单回顾了『等效交互可解释性理论体系』(20 篇 CCF-A 及 ICLR 论文),并在此基础上,严格推导并预测出神经网络在训练过程中其概念表征及其泛化性的动力学变化,即在某种程度上,我们可以解释在训练过程中神经网络在任意时间点的泛化性及其内在根因。

来自主题: AI技术研报
8410 点击    2024-08-04 13:55
LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

LoRA综述来了! 浙大《大语言模型的LoRA研究》综述

低秩适应(Low-Rank Adaptation,LoRA)通过可插拔的低秩矩阵更新密集神经网络层,是当前参数高效微调范式中表现最佳的方法之一。此外,它在跨任务泛化和隐私保护方面具有显著优势。

来自主题: AI技术研报
10736 点击    2024-07-21 14:02
AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

AI大模型有望再扩1000倍!剑桥耶鲁康奈尔:PNN是变革关键

最近,多个机构学者合著的一篇研究为AI的规模化指了一条新路:物理神经网络(PNN),这一新兴的前沿领域还鲜少有人涉足,但绝对值得深耕!AI模型再扩展1000倍的秘密可能就藏在这里。

来自主题: AI技术研报
8742 点击    2024-07-14 14:01
LeCun新作:神经网络在实践中的灵活性到底有多大?

LeCun新作:神经网络在实践中的灵活性到底有多大?

LeCun新作:神经网络在实践中的灵活性到底有多大?

神经网络拟合数据的能力受哪些因素影响?CNN一定比Transformer差吗?ReLU和SGD还有哪些神奇的作用?近日,LeCun参与的一项工作向我们展示了神经网络在实践中的灵活性。

来自主题: AI技术研报
8681 点击    2024-07-10 18:23
像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了

像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了

像生物网络一样「生长」,具备「结构可塑性」的自组织神经网络来了

生物神经网络有一个重要的特点是高度可塑性,这使得自然生物体具有卓越的适应性,并且这种能力会影响神经系统的突触强度和拓扑结构。

来自主题: AI技术研报
7701 点击    2024-07-09 17:15
图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

图神经网络加持,突破传统推荐系统局限!北大港大联合提出SelfGNN:有效降低信息过载与数据噪声影响

SelfGNN框架结合了图神经网络和个性化自增强学习,能够捕捉用户行为的多时间尺度模式,降低噪声影响,提升推荐系统鲁棒性。

来自主题: AI技术研报
5630 点击    2024-07-09 16:12
神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达!

神经网络通常由三部分组成:线性层、非线性层(激活函数)和标准化层。线性层是网络参数的主要存在位置,非线性层提升神经网络的表达能力,而标准化层(Normalization)主要用于稳定和加速神经网络训练,很少有工作研究它们的表达能力,例如,以Batch Normalization为例

来自主题: AI技术研报
5503 点击    2024-07-02 17:38