AI资讯新闻榜单内容搜索-RL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RL
李飞飞团队ReKep荣获CoRL-LEAP研讨会最佳论文奖,具身智能又下一城!

李飞飞团队ReKep荣获CoRL-LEAP研讨会最佳论文奖,具身智能又下一城!

李飞飞团队ReKep荣获CoRL-LEAP研讨会最佳论文奖,具身智能又下一城!

如何让机器人拥有人一样的协调行动能力是具身智能不可避免的挑战,而李飞飞团队在CoRL-LEAP研讨会获得最佳论文奖的ReKep对于这一挑战交出了一张亮眼的答卷。

来自主题: AI技术研报
7072 点击    2024-12-03 15:27
翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看

翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看

翁荔离职OpenAI后第一个动作:万字长文探讨RLHF的漏洞,网友们抢着传看

之前领导OpenAI安全团队的北大校友翁荔(Lilian Weng),离职后第一个动作来了。当然是发~博~客。这次的博客一如既往万字干货,妥妥一篇研究综述,翁荔本人直言写起来不容易。主题围绕强化学习中奖励黑客(Reward Hacking)问题展开,即Agent利用奖励函数或环境中的漏洞来获取高奖励,而并未真正学习到预期行为。

来自主题: AI技术研报
7083 点击    2024-12-03 00:16
无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度。 由国家信息中心、牛津大学、北京理工大学、同济大学、中国科学技术大学等机构的团队提出了一个FilterNet。 目前已被NeurlPS 2024接收。

来自主题: AI技术研报
6095 点击    2024-12-01 14:12
流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

流式深度学习终于奏效了!强化学习之父Richard Sutton力荐

自然智能(Natural intelligence)过程就像一条连续的流,可以实时地感知、行动和学习。流式学习是 Q 学习和 TD 等经典强化学习 (RL) 算法的运作方式,它通过使用最新样本而不存储样本来模仿自然学习。这种方法也非常适合资源受限、通信受限和隐私敏感的应用程序。

来自主题: AI技术研报
5881 点击    2024-11-29 15:18
智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

智能体零样本解决未见过人类设计环境!全靠这个开放式物理RL环境空间

在机器学习领域,开发一个在未见过领域表现出色的通用智能体一直是长期目标之一。一种观点认为,在大量离线文本和视频数据上训练的大型 transformer 最终可以实现这一目标。

来自主题: AI技术研报
5205 点击    2024-11-24 19:59
全球十亿级轨迹点驱动,首个轨迹基础大模型来了

全球十亿级轨迹点驱动,首个轨迹基础大模型来了

全球十亿级轨迹点驱动,首个轨迹基础大模型来了

在智慧城市和大数据时代背景下,人类轨迹数据的分析对于交通优化、城市管理、物流配送等关键领域具有重要意义。然而,现有的轨迹相关模型往往受限于特定任务、区域依赖、轨迹数据规模和多样性困乏等问题,限制了模型的泛化能力和实际应用范围。

来自主题: AI技术研报
8517 点击    2024-11-22 17:21
Dario Amodei:Scaling Law 还没遇到上限

Dario Amodei:Scaling Law 还没遇到上限

Dario Amodei:Scaling Law 还没遇到上限

Powerful AI 预计会在 2026 年实现,足够强大的 AI 也能够将把一个世纪的科研进展压缩到 5-10 年实现(“Compressed 21st Century”),在他和 Lex Fridman 的最新对谈中,Dario 具体解释了自己对于 Powerful AI 可能带来的机会的理解,以及 scaling law、RL、Compute Use 等模型训练和产品的细节进行了分享

来自主题: AI资讯
8444 点击    2024-11-22 10:06
视频生成无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

视频生成无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

视频生成无损提速:删除多余token,训练时间减少30%,帧率越高效果越好 | NeurIPS

卡内基梅隆大学提出了视频生成模型加速方法Run-Length Tokenization(RLT),被NeurIPS 2024选为Spotlight论文。 在精度几乎没有损失的前提下,RLT可以让模型训练和推理速度双双提升。

来自主题: AI技术研报
5738 点击    2024-11-17 14:10