李国杰院士:基于可判定性理论的人工智能系统安全风险分类
李国杰院士:基于可判定性理论的人工智能系统安全风险分类李国杰院士指出,AI安全风险应按逻辑复杂性分为三类:R1可验证、R2可发现但不可证明安全、R3不可治理。当前AI多属R2,关键不在「证明安全」,而在构建人类主导的制度性刹车机制,拒绝让渡终极控制权。
李国杰院士指出,AI安全风险应按逻辑复杂性分为三类:R1可验证、R2可发现但不可证明安全、R3不可治理。当前AI多属R2,关键不在「证明安全」,而在构建人类主导的制度性刹车机制,拒绝让渡终极控制权。
美国五角大楼正向 Anthropic 极限施压,要求彻底解除 Claude 的军事应用限制。会后,Anthropic 发布新版政策。公司正式放弃了「单方面暂停大模型训练」的安全承诺。在政治与商业的双重压力下,AI 安全理想主义最终向现实妥协。
Meta专门研究「怎么让AI听话」的AI对齐总监,把最火的AI智能体OpenClaw接上了自己的工作邮箱。结果AI当场失控,疯狂删除邮件,喊停三次全部无视。事后AI淡定回复:「我知道你说了不让删,但我还是删了,你生气是对的。」马斯克转发猩球崛起片段嘲讽,1800万人围观。AI安全专家自己都被AI坑了!
刚刚,Anthropic发布代码安全工具Claude Code Security,直接让安全股一夜蒸发百亿市值!网络安全龙头CrowdStrike的股价直接原地跌超6.5%,市场陷入极度恐慌:传统安全工具,从此全凉了?
该事故目前已得到谷歌官方技术团队的确认,官方承认属于 “Systemic path-parsing failure ”“Catastrophic impact”“Have seen before”,正在紧急硬编码修复上线中(自 2 月 6 日回复起,截止目前,暂未有修复完成的正式通知)
上周末,号称「AI 版 Reddit」的 Moltbook 闹得沸沸扬扬。
OpenClaw、Moltbook彻底火了。
提供智能化网络安全平台以协助企业检测、调查并清除身份欺诈的Outtake,已成功筹集 4000 万美元 B 轮融资。
AI 社交网络 Moltbook 数据库完全暴露,15 万 AI「居民」的密钥可被任意接管。
一夜爆红的ClawdBot,正在把无数公司和个人推向深渊:端口裸奔、无鉴权、可被远程接管。现在,暴力破解、数据清空已经真实发生了,这不是危言耸听。各位CEO纷纷预警:ClawdBot,正在酝酿一场全球灾难!