AI资讯新闻榜单内容搜索-Transforme

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Transforme
揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

北京大学研究团队开发的FAN模型能有效捕捉数据中的周期性模式,相比传统模型在多项任务中表现出色,同时降低了参数量和计算量,增强了对周期性特征的建模能力,应用潜力广泛。

来自主题: AI技术研报
5462 点击    2024-11-26 13:43
智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

在机器学习领域,开发一个在未见过领域表现出色的通用智能体一直是长期目标之一。一种观点认为,在大量离线文本和视频数据上训练的大型 transformer 最终可以实现这一目标。

来自主题: AI技术研报
5193 点击    2024-11-24 19:59
对话Sapient Intelligence联合创始人Austin郑晓明:智人之上,做AI创新引领者

对话Sapient Intelligence联合创始人Austin郑晓明:智人之上,做AI创新引领者

对话Sapient Intelligence联合创始人Austin郑晓明:智人之上,做AI创新引领者

在AI领域数据和算力的军备竞赛中,AI从业者要么紧密跟随OpenAI等领先公司做进一步的应用开发,要么在Transformer机制日益显现局限之时探索新的路径。

来自主题: AI资讯
6214 点击    2024-11-20 09:05
Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Make U-Nets Great Again!北大&华为提出扩散架构U-DiT,六分之一算力即可超越DiT

Sora 的发布让广大研究者及开发者深刻认识到基于 Transformer 架构扩散模型的巨大潜力。作为这一类的代表性工作,DiT 模型抛弃了传统的 U-Net 扩散架构,转而使用直筒型去噪模型。鉴于直筒型 DiT 在隐空间生成任务上效果出众,后续的一些工作如 PixArt、SD3 等等也都不约而同地使用了直筒型架构。

来自主题: AI技术研报
2968 点击    2024-11-15 15:09
Transformer打破三十年数学猜想!Meta研究者用AI给出反例,算法杀手攻克数学难题

Transformer打破三十年数学猜想!Meta研究者用AI给出反例,算法杀手攻克数学难题

Transformer打破三十年数学猜想!Meta研究者用AI给出反例,算法杀手攻克数学难题

30多年的数学猜想首次获得了进展!Meta等学者提出的PatternBoost,使用Transformer构造了一个反例,反驳了一个已悬而未决30年的猜想。是否所有数学问题都适合机器学习技术?这样的未来太令人期待了。

来自主题: AI技术研报
6133 点击    2024-11-14 10:46
揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷

揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷

揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷

周期性现象广泛存在,深刻影响着人类社会和自然科学。作为最重要的基本特性之一,许多规律都显式或隐式地包含周期性,例如天文学中的行星运动、气象学中的季节变化、生物学中的昼夜节律、经济学中的商业周期、物理学中的电磁波以及数学运算和逻辑推理等。因此,在许多任务和场景中,人们希望对周期进行建模,以便根据以往的经验进行推理。

来自主题: AI技术研报
2561 点击    2024-11-10 13:43
LLM的Prompt竟然是图灵完备的?LLM提示范式的第一个研究 | 重磅

LLM的Prompt竟然是图灵完备的?LLM提示范式的第一个研究 | 重磅

LLM的Prompt竟然是图灵完备的?LLM提示范式的第一个研究 | 重磅

近日,伊利诺伊大学香槟分校的研究团队发布了一篇开创性论文,首次从理论层面证明了大语言模型(LLM)中的prompt机制具有图灵完备性。这意味着,通过合适的prompt设计,一个固定大小的Transformer模型理论上可以计算任何可计算函数。这一突破性发现为prompt工程提供了坚实的理论基础。

来自主题: AI技术研报
4300 点击    2024-11-07 09:39
微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑

微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑

微软清华改进Transformer:用降噪耳机原理升级注意力,一作在线答疑

Transformer自问世后就大放异彩,但有个小毛病一直没解决: 总爱把注意力放在不相关的内容上,也就是信噪比低。 现在微软亚研院、清华团队出手,提出全新改进版Differential Transformer,专治这个老毛病,引起热议。

来自主题: AI技术研报
3406 点击    2024-11-03 14:32
超越Transformer,全面升级!MIT等华人团队发布通用时序TimeMixer++架构,8项任务全面领先

超越Transformer,全面升级!MIT等华人团队发布通用时序TimeMixer++架构,8项任务全面领先

超越Transformer,全面升级!MIT等华人团队发布通用时序TimeMixer++架构,8项任务全面领先

TimeMixer++是一个创新的时间序列分析模型,通过多尺度和多分辨率的方法在多个任务上超越了现有模型,展示了时间序列分析的新视角,在预测和分类等任务带来了更高的准确性和灵活性。

来自主题: AI技术研报
3971 点击    2024-10-29 14:51