Nature封面:“揭穿”一切,Google DeepMind为AI大模型添加了“隐形指纹”
Nature封面:“揭穿”一切,Google DeepMind为AI大模型添加了“隐形指纹”尽管生成式人工智能(AI)正在改变全球内容生产的格局,但诸多严峻挑战也随之而来:如何准确识别由 AI 生成的内容并防止其被滥用,尤其是在文本生成领域,已成为困扰越来越多人的一大难题。
尽管生成式人工智能(AI)正在改变全球内容生产的格局,但诸多严峻挑战也随之而来:如何准确识别由 AI 生成的内容并防止其被滥用,尤其是在文本生成领域,已成为困扰越来越多人的一大难题。
现如今,大型语言模型(LLM)生成的内容已经充斥了整个互联网,并且这些模型还能模仿各种类似真人的语气和行文风格,让人难以分辨眼前的文本究竟来自人类还是 AI。
量子计算机和经典计算机之间的较量,是永恒的。谷歌最新Nature研究中,证明了随机电路采样可以容忍多大噪声,依旧实现了量子霸权。
1%的合成数据,就让LLM完全崩溃了? 7月,登上Nature封面一篇论文证实,用合成数据训练模型就相当于「近亲繁殖」,9次迭代后就会让模型原地崩溃。
借助AI工具,研究人员有更多方法来快速筛选总结研究文献,他们又是如何正确/谨慎使用这些AI工具的?
今年的诺贝尔物理学奖颁给了两位享誉盛名的 AI 研究者 John J. Hopfield 和 Geoffrey E. Hinton,这确实让很多人感到意外。
00后国人一作登上Nature,这篇大模型论文引起热议。
AI 设计芯片的新纪元 近日,谷歌 DeepMind 在 Nature 上正式公布了其最新的芯片设计算法 AlphaChip,该方法致力于加速和优化计算机芯片的开发,已经历经多款 TPU 的产品考验,可在短短数小时内完成人类专家需要数周甚至数月的芯片布局设计。
2022年,AI大牛Ilya Sutskever曾预测:「随着时间推移,人类预期和AI实际表现差异可能会缩小」。
Sutton 等研究人员近期在《Nature》上发表的研究《Loss of Plasticity in Deep Continual Learning》揭示了一个重要发现:在持续学习环境中,标准深度学习方法的表现竟不及浅层网络。研究指出,这一现象的主要原因是 "可塑性损失"(Plasticity Loss):深度神经网络在面对非平稳的训练目标持续更新时,会逐渐丧失从新数据中学习的能力。