
OpenAI谷歌Anthropic罕见联手发研究!Ilya/Hinton/Bengio带头支持,共推CoT监测方案
OpenAI谷歌Anthropic罕见联手发研究!Ilya/Hinton/Bengio带头支持,共推CoT监测方案难得难得,几大AI巨头不竞争了不抢人了,改联合一起发研究了。
难得难得,几大AI巨头不竞争了不抢人了,改联合一起发研究了。
跟大家汇报一下! 最近,在联合国于日内瓦召开的全球AI for Good(人工智能向善)峰会上,我们受邀分享了在金融风控场景中对抗“深度伪造”的最新技术成果。
华南理工大学计算机学院AI安全团队长期深耕于人工智能安全,近期联合约翰霍普金斯大学和加州大学圣地亚戈分校聚焦于联邦学习中防范恶意投毒攻击,产出工作连续发表于AI顶刊TPAMI 2025和网络安全顶刊TIFS 2025。
所有使用MCP协议的企业注意:你的数据库可能正在“裸奔”!
据权威媒体报道,Anthropic正在紧锣密鼓地测试代号为“Claude Neptune v3”的全新AI模型。这一消息引发了AI社区的广泛关注,许多业内人士推测,Neptune v3可能是Claude4.5的雏形,甚至可能在未来数周内正式发布。作为Anthropic在AI安全与性能领域的又一力作,Neptune v3的亮相无疑将为行业带来新的期待。
从撒谎到勒索,再到暗中自我复制,AI 的「危险进化」已不仅仅是科幻桥段,而是实验室里的可复现现象。
AI安全不是加分项,而是AI应用落地的必要一环。
大语言模型(LLM)能力提升引发对潜在风险的担忧,洞察其内部“思维过程”、识别危险信号成AI安全核心挑战。
仅用6小时,Claude 4就让研究者了解了如何制造神经毒气——这不是小说情节,而是真实事件。更令人担忧的是,Anthropic自身也无法完全评估风险。这是否意味着这家AI巨头的「安全人设」正在崩塌?
Horizon3.ai 是一家提供自主渗透测试等工具的网络安全初创公司,该公司本周在提交给美国证券交易委员会的文件中透露,正在寻求新一轮 1 亿美元的融资,并已锁定至少 7300 万美元。