让机器人「不只是走路」,Nav-R1引领带推理的导航新时代
让机器人「不只是走路」,Nav-R1引领带推理的导航新时代这篇题为《Nav-R1: Reasoning and Navigation in Embodied Scenes》的新论文,提出了一个新的「身体体现式(embodied)基础模型」(foundation model),旨在让机器人或智能体在 3D 环境中能够更好地结合「感知 + 推理 + 行动」。简单说,它不仅「看到 + 听到+开动马达」,还加入清晰的中间「思考」环节。
这篇题为《Nav-R1: Reasoning and Navigation in Embodied Scenes》的新论文,提出了一个新的「身体体现式(embodied)基础模型」(foundation model),旨在让机器人或智能体在 3D 环境中能够更好地结合「感知 + 推理 + 行动」。简单说,它不仅「看到 + 听到+开动马达」,还加入清晰的中间「思考」环节。
近年来,以人形机器人、自动驾驶为代表的具身人工智能(Embodied Artificial Intelligence, EAI)正以前所未有的速度发展,从数字世界大步迈向物理现实。然而,当一次错误的风险不再是屏幕上的一行乱码,而是可能导致真实世界中的物理伤害时,一个紧迫的问题摆在了我们面前: 如何确保这些日益强大的具身智能体是安全且值得信赖的?
上周,福布斯、Wired等争相报道「全球最快开源推理模型」K2-Think,,甚至图灵奖得主Yann LeCun转发推文。但仅三天后,ETH五位研究员的博客如晴天霹雳:87数学评估题竟藏在训练集中!这不仅仅是技术突破,更是行业诚信的警钟。
谷歌这只「香蕉」火得有些疯狂:Nano Banana(即 Gemini 2.5 Flash Image)自 8 月底上线以来,仅用几周就吸引了超过 1,000 万新用户,并在 Gemini 应用中完成了 2 亿次图像编辑请求
HTEC团队利用英飞凌的PSoC Edge处理器,研究探讨了如何使用深度神经网络 (DNN) 预测 DC-DC 转换器的最佳占空比,重点在于识别最相关的输入特征,以提高性能和可靠性。
OpenAI 正在逐渐偏离 AGI 吗?最近在 Reddit 上有个热帖引发了不少讨论。作者回忆起最初的 ChatGPT,只需要随意聊几句,他就能揣摩你的意图,给出启发性的回答。
芯片再快,也快不过光!微软研究院在剑桥拼出了一台模拟光学计算机:用手机摄像头、Micro LED和透镜拼成,却在实验里跑出了速度快100倍、能效高100倍的潜力。这一成果如今登上Nature,或许,算力格局将被改写。
AI是否会在5年内破解黎曼猜想?是否会保持每年5x的算力扩张节奏?十年后,AI将把我们带向一个什么样的世界?近日,Epoch AI负责人Jaime Sevilla,与数据与分析负责人Yafah Edelman在对话中,为我们揭示了未来十年AI发展的路线图。
Lovart(lovart.ai/)速度是真的快,前几天发现他们第一时间就上线了 Seedream 4.0 模型,而且在前天开启了超级优惠活动: 9.10-9.20 Nano Banana 和 Seedream 4.0 模型免费用不扣积分
刚刚,豆包·图像创作模型Seedream 4.0同时登顶「文生图」和「图像编辑」两项榜单!相比Nano Banana,Seedream 4.0在文生图的清晰度和美感上优势较为明显;在图像编辑上则难分伯仲,仅小幅领先。