AI资讯新闻榜单内容搜索-神经网络

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 神经网络
DeepMind最新成果剑指量子力学,FermiNet或将破解近百年计算难题

DeepMind最新成果剑指量子力学,FermiNet或将破解近百年计算难题

DeepMind最新成果剑指量子力学,FermiNet或将破解近百年计算难题

DeepMind联合帝国理工学院的学者,专注于用神经网络方法对量子力学中经典的薛定谔方程进行近似求解。继2020年提出FermiNet后,团队的最新成果——求解量子激发态,登上Science。

来自主题: AI技术研报
6485 点击    2024-09-04 15:48
深度学习还不如浅层网络?RL教父Sutton持续反向传播算法登Nature

深度学习还不如浅层网络?RL教父Sutton持续反向传播算法登Nature

深度学习还不如浅层网络?RL教父Sutton持续反向传播算法登Nature

人工神经网络、深度学习方法和反向传播算法构成了现代机器学习和人工智能的基础。但现有方法往往是一个阶段更新网络权重,另一个阶段在使用或评估网络时权重保持不变。这与许多需要持续学习的应用程序形成鲜明对比。

来自主题: AI技术研报
7864 点击    2024-08-29 17:01
人人都能玩得起AI机器人!HuggingFace开源低成本解决方案

人人都能玩得起AI机器人!HuggingFace开源低成本解决方案

人人都能玩得起AI机器人!HuggingFace开源低成本解决方案

近日,HuggingFace开源了低成本AI机器人LeRobot,并指导大家从头开始构建AI控制的机器人,包括组装、配置到训练控制机器人的神经网络。

来自主题: AI资讯
7761 点击    2024-08-29 16:05
类脑网络模型:通用人工智能的全新路径

类脑网络模型:通用人工智能的全新路径

类脑网络模型:通用人工智能的全新路径

人工智能,AI,大模型,神经网络

来自主题: AI技术研报
8972 点击    2024-08-27 14:32
如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

如何让等变神经网络可解释性更强?试试将它分解成「简单表示」

神经网络是一种灵活且强大的函数近似方法。而许多应用都需要学习一个相对于某种对称性不变或等变的函数。图像识别便是一个典型示例 —— 当图像发生平移时,情况不会发生变化。等变神经网络(equivariant neural network)可为学习这些不变或等变函数提供一个灵活的框架。

来自主题: AI技术研报
8399 点击    2024-08-23 18:10
Emory提出最新PolygonGNN框架:可捕捉通用多边形内外的空间关系 | KDD 2024

Emory提出最新PolygonGNN框架:可捕捉通用多边形内外的空间关系 | KDD 2024

Emory提出最新PolygonGNN框架:可捕捉通用多边形内外的空间关系 | KDD 2024

PolygonGNN是一种新型框架,用于学习包括单一和多重多边形在内的多边形几何体的表征,它通过异质可见图来捕捉多边形内外的空间关系,并利用图神经网络有效处理这些关系,以提高计算效率和泛化能力。该框架在五个数据集上表现出色,证明了其在捕捉多边形几何体有用表征方面的有效性。

来自主题: AI技术研报
5456 点击    2024-08-21 18:27
Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

Nature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁

让模型具有更加广泛和通用的认知能力,是当前人工智能(AI)领域发展的重要目标。目前流行的大模型路径是基于 Scaling Law (尺度定律) 去构建更大、更深和更宽的神经网络提升模型的表现,可称之为 “基于外生复杂性” 的通用智能实现方法。然而,这一路径也面临着一些难以克服的困境,例如高昂的计算资源消耗和能源消耗,并且在可解释性方面存在不足。

来自主题: AI资讯
5358 点击    2024-08-18 10:16
首个像人类一样思考的网络!Nature子刊:AI模拟人类感知决策

首个像人类一样思考的网络!Nature子刊:AI模拟人类感知决策

首个像人类一样思考的网络!Nature子刊:AI模拟人类感知决策

近日,来自佐治亚理工学院的研究人员开发了RTNet,首次表明其「思考方式」与人类非常相似。

来自主题: AI技术研报
9743 点击    2024-08-14 16:45
黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

黑匣子被打开了!能玩的Transformer可视化解释工具,本地运行GPT-2、还可实时推理

2017 年,谷歌在论文《Attention is all you need》中提出了 Transformer,成为了深度学习领域的重大突破。该论文的引用数已经将近 13 万,后来的 GPT 家族所有模型也都是基于 Transformer 架构,可见其影响之广。 作为一种神经网络架构,Transformer 在从文本到视觉的多样任务中广受欢迎,尤其是在当前火热的 AI 聊天机器人领域。

来自主题: AI资讯
6478 点击    2024-08-11 17:38