
大模型隐私安全和公平性有“跷跷板”效应,最佳平衡法则刚刚找到 | 人大&上海AI Lab
大模型隐私安全和公平性有“跷跷板”效应,最佳平衡法则刚刚找到 | 人大&上海AI Lab大模型伦理竟然无法对齐?
大模型伦理竟然无法对齐?
本文由上海 AI Lab 和北京航空航天大学联合完成。 主要作者包括上海 AI Lab 和上交大联培博士生卢晓雅、北航博士生陈泽人、上海 AI Lab 和复旦联培博士生胡栩浩(共同一作)等。
近日,海外游戏开发者Ichiro发布了一篇报告,报告中称Steam有7818款游戏使用了生成式AI,占Steam游戏库的7%(总量约114126款游戏)。
当前AI应用层,无数创业者都曾尝试或正走在AI+游戏的这条赛道上。AI正不断拓展游戏的边界,从赋予游戏角色(NPC)智慧,到自动化生成海量内容。然而,这条赛道并非坦途,性能、幻觉问题、玩家接受度等一系列难关等待从业者去克服。
近年来,大型语言模型(LLMs)在复杂推理任务中展现出惊人的能力,这在很大程度上得益于过程级奖励模型(PRMs)的赋能。PRMs 作为 LLMs 进行多步推理和决策的关键「幕后功臣」,负责评估推理过程的每一步,以引导模型的学习方向。
陈建宇(星动纪元创始人)、高阳(千寻智能联合创始人)、吴翼(蚂蚁集团强化学习实验室首席科学家)、许华哲(星海图联合创始人)的分享(题图从左至右),基本代表了国内具身智能领域最先进的成果展示。
7月23日,由世纪华通发起,中国音数协游戏工委、浦东新区区委宣传部(文体旅游局)、上海市网络游戏行业协会指导,联合中国国际数码互动娱乐展览会、澎湃新闻、光源资本、钟鼎资本、36氪、联想集团等多方力量共同打造的“数龙杯”全球AI游戏及应用创新大赛(英文简称“Digiloong GAIC”)在上海举办线下路演活动。
新一代大型推理模型,如 OpenAI-o3、DeepSeek-R1 和 Kimi-1.5,在复杂推理方面取得了显著进展。该方向核心是一种名为 ZERO-RL 的训练方法,即采用可验证奖励强化学习(RLVR)逐步提升大模型在强推理场景 (math, coding) 的 pass@1 能力。
目前将AI当作能力更强的信息提供者,才是个最好的选择。 AI正在变得越来越有“人味”,偷懒、撒谎、谄媚等现象的出现使得让AI不再只是冷冰冰的机器。如果说OpenAI o3等模型篡改代码拒绝关机指令是“求生本能”在作祟,那么AI又为何会化身“赛博舔狗”,选择近乎无底线地迎合用户呢?
需要时间来磨合