谷歌192亿买他回来,现在只想让他闭嘴
谷歌192亿买他回来,现在只想让他闭嘴谷歌花27亿美元(约192亿人民币)挖来的Transformer“贡献最大”作者Noam Shazzer,现在点燃了火药桶。
谷歌花27亿美元(约192亿人民币)挖来的Transformer“贡献最大”作者Noam Shazzer,现在点燃了火药桶。
2025年末,谷歌通过Kaggle平台,以前所未有的力度,连续推出了两个为期五天的线上强化课程。这不仅仅是两次普通的线上分享,更像是一场由谷歌顶级机器学习(ML)研究员和工程师亲自引领的、深入探索生成式AI及其前沿应用——AI Agents(人工智能代理)的集训。
过去几个月,大型人工智能公司在印度动作频频。首先是 Perplexity AI 公司与印度第二大移动网络运营商 Airtel 合作,在印度免费提供其高级 Pro 版本。他们免费赠送了一份价值约 17000 卢比(约合人民币 1365 元)的年度订阅服务。这发生在 7 月份。此举拉开了更多类似合作的序幕。
Nano Banana 2代一亮相就惊艳众人。
大模型「灾难性遗忘」问题或将迎来突破。近日,NeurIPS 2025收录了谷歌研究院的一篇论文,其中提出一种全新的「嵌套学习(Nested Learning)」架构。实验中基于该框架的「Hope」模型在语言建模与长上下文记忆任务中超越Transformer模型,这意味着大模型正迈向具备自我改进能力的新阶段。
就在今天,谷歌Nano Banana 2预览版闪现第三方平台,生成速度飙到10秒、画质拉到4K。网友实测炸锅,一句话直出OS+UI复杂界面,还能在黑板上一键推导微积分。真正的「PS终结者」即将上线。
你的智能音箱,可能已经比你更了解自己!谷歌新推出的Gemini for Home,不仅能识别人脸、快递、访客,还会自动生成「家庭日报」。它能开灯、播歌、关窗帘,甚至提醒你宠物在客厅活动。不过,这位AI实习生也有点「中二」——连狗都能看成猫。智能的尽头,或许是一次可爱的误会。
近日,谷歌推出了一种全新的用于持续学习的机器学习范式 —— 嵌套学习,模型不再采用静态的训练周期,而是以不同的更新速度在嵌套层中进行学习,即将模型视为一系列嵌套问题的堆叠,使其能够不断学习新技能,同时又不会遗忘旧技能。
机器之心报道 编辑:Panda 刚刚,OpenHands 开发团队发布了一篇新论文,正式宣布广受欢迎的软件开发智能体框架 OpenHands (GitHub star 已超 6.4 万)中的智能体组件
著名数学家陶哲轩发论文了,除了陶大神,论文作者还包括 Google DeepMind 高级研究工程师 BOGDAN GEORGIEV 等人。论文展示了 AlphaEvolve 如何作为一种工具,自主发现新的数学构造,并推动人们对长期未解数学难题的理解。AlphaEvolve 是谷歌在今年 5 月发布的一项研究,一个由 LLMs 驱动的革命性进化编码智能体。