AI资讯新闻榜单内容搜索-ICL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: ICL
Transformer推理天花板被谷歌打破?DeepMind首席科学家亮出84页PPT,却遭LeCun反对

Transformer推理天花板被谷歌打破?DeepMind首席科学家亮出84页PPT,却遭LeCun反对

Transformer推理天花板被谷歌打破?DeepMind首席科学家亮出84页PPT,却遭LeCun反对

随OpenAI爆火的CoT,已经引发了大佬间的激战!谷歌DeepMind首席科学家Denny Zhou拿出一篇ICLR 2024论文称:CoT可以让Transformer推理无极限。但随即他就遭到了田渊栋和LeCun等的质疑。最终,CoT会是通往AGI的正确路径吗?

来自主题: AI技术研报
8567 点击    2024-09-20 19:48
ECCV 2024 | 探索离散Token视觉生成中的自适应推理策略

ECCV 2024 | 探索离散Token视觉生成中的自适应推理策略

ECCV 2024 | 探索离散Token视觉生成中的自适应推理策略

本论文第一作者倪赞林是清华大学自动化系 2022 级直博生,师从黄高副教授,主要研究方向为高效深度学习与图像生成。他曾在 ICCV、CVPR、ECCV、ICLR 等国际会议上发表多篇学术论文。

来自主题: AI技术研报
6133 点击    2024-09-19 11:14
你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

你以为的LLM上下文学习超能力,究竟来自哪里,ICL的内部机制如何 |最新发布

上下文学习(In-Context Learning, ICL)是指LLMs能够仅通过提示中给出的少量样例,就迅速掌握并执行新任务的能力。这种“超能力”让LLMs表现得像是一个"万能学习者",能够在各种场景下快速适应并产生高质量输出。然而,关于ICL的内部机制,学界一直存在争议。

来自主题: AI资讯
4683 点击    2024-09-11 10:17
Sparticle金峰:生成式AI创业,日本能够提供什么机会?

Sparticle金峰:生成式AI创业,日本能够提供什么机会?

Sparticle金峰:生成式AI创业,日本能够提供什么机会?

在这一波AI浪潮之中,日本一方面承担着亚洲据点作用,另一方面本土企业的表现并不突出。

来自主题: AI资讯
8988 点击    2024-08-13 15:44
可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

本文首先简单回顾了『等效交互可解释性理论体系』(20 篇 CCF-A 及 ICLR 论文),并在此基础上,严格推导并预测出神经网络在训练过程中其概念表征及其泛化性的动力学变化,即在某种程度上,我们可以解释在训练过程中神经网络在任意时间点的泛化性及其内在根因。

来自主题: AI技术研报
8312 点击    2024-08-04 13:55
ICML直击丨包揽最佳论文、现场发offer抢人…学术顶会变成了“大厂”顶会

ICML直击丨包揽最佳论文、现场发offer抢人…学术顶会变成了“大厂”顶会

ICML直击丨包揽最佳论文、现场发offer抢人…学术顶会变成了“大厂”顶会

7月27日,与ICLR(国际学习表示会议)、NeurIPS(神经信息处理系统会议)并称三大机器学习顶级会议的ICML(国际机器学习大会),在奥地利维也纳会展中心落下帷幕。

来自主题: AI技术研报
9869 点击    2024-07-29 20:35
CVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十

CVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十

CVPR世界第二仅次Nature!谷歌2024学术指标出炉,NeurIPS、ICLR跻身前十

一年一度谷歌学术指标公布了!Nature年年霸榜,而今年与以往不同的是,国际学术顶会的排名大幅提升,CVPR位居第二,超越Science仅次于Nature。另外,TOP 20中,共有五大顶会入选,被引最高论文与大模型时代下前沿技术,一脉相承。

来自主题: AI技术研报
8873 点击    2024-07-11 21:37
ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

上下文学习 (in-context learning, 简写为 ICL) 已经在很多 LLM 有关的应用中展现了强大的能力,但是对其理论的分析仍然比较有限。人们依然试图理解为什么基于 Transformer 架构的 LLM 可以展现出 ICL 的能力。

来自主题: AI技术研报
4163 点击    2024-06-28 11:23