学生3年投稿6次被拒,于是吴恩达亲手搓了个评审Agent
学生3年投稿6次被拒,于是吴恩达亲手搓了个评审Agent科研人不容易。3年投稿6次全被拒,每次等反馈要半年??机器学习大佬吴恩达听说这位学生的“水逆”遭遇后,亲手搓了个免费的AI论文评审智能体出来。通过在ICLR 2025审稿数据上训练系统,并在测试集中对比发现,该AI审稿系统与人类审稿的相关系数达0.42,和人与人审稿间的0.41相近甚至还高一点。
科研人不容易。3年投稿6次全被拒,每次等反馈要半年??机器学习大佬吴恩达听说这位学生的“水逆”遭遇后,亲手搓了个免费的AI论文评审智能体出来。通过在ICLR 2025审稿数据上训练系统,并在测试集中对比发现,该AI审稿系统与人类审稿的相关系数达0.42,和人与人审稿间的0.41相近甚至还高一点。
他是站在诺奖得主身侧的MIT天之骄子,用一篇完美契合时代痛点的AI论文愚弄了国会与顶级期刊,却最终败给了跨学科的常识。这不仅是一场关于数据造假的惊天丑闻,更是一次对学术圈盲目追逐风口、迷信权威与跨界盲区的残酷祛魅。当才华被野心吞噬,他编织的谎言虽然构建了一个严丝合缝的「完美世界」,却在现实的审视下瞬间化为泡影。
面对泛滥成灾的AI生成论文与注水评审,AI顶会ICLR终于祭出「核威慑」:除了惩罚未主动披露滥用AI的论文作者外,用AI敷衍的评审者,自己的论文也将面临拒稿。
离开Meta的大佬们,留下作品还在陆续发表,今天轮到田渊栋。
在号称「史上最严管控AI」的顶级会议ICLR 2026上,评审区却悄悄被大模型攻占。每五条审稿意见里,就有一条几乎全由AI一键生成。当作者怀疑评审是机器人写的、审稿人又怀疑论文是模型拼的,同行评审这台「科学秩序的发动机」,正一点点滑向一场没人承认、却无处不在的自动化实验。
ICML 2026论文可以投了,截止日期2026年1月28日。今年针对AI使用,组委会强调了三点:LLM不可以「署名」;严禁提示注入,否则拒稿;以及扩大AI审稿。
当地时间 10 月 31 日,由于涌入预印本平台 arXiv 的计算机科学(CS,Compute Science)的由 AI 生成或 AI 辅助生成的综述论文和立场论文数量变得难以管理,arXiv 更新了关于综述论文和立场论文的审核规则,要求这两类论文必须被期刊或会议接收并完成同行评审之后才能提交到 arXiv 的 CS 类别。
从ICML到ACL,张铭教授的实验室十年两度拿下世界顶会「最佳论文」。甚至连中学生,都能在这里提前卷科研,拿下「小诺贝尔奖」。一间实验室,如何同时孵化论文大奖、百亿企业和未来科学家?这背后,是科研思维与创新教育的独特结合。
许多研究者在参加学术会议前,常常会因为制作海报所耗费的大量时间和精力而感到困扰。一张精心设计的海报是高效的学术交流媒介,但现有自动化方法普遍忽略了核心设计原则,导致生成的海报仍旧需要大量人工调整。
近年来,大语言模型(LLMs)展现出强大的语言理解与生成能力,推动了文本生成、代码生成、问答、翻译等任务的突破。代表性模型如 GPT、Claude、Gemini、DeepSeek、Qwen 等,已经深刻改变了人机交互方式。