
MIT终身教授何恺明,入职谷歌了
MIT终身教授何恺明,入职谷歌了AI大牛何恺明最新动向来了!
AI大牛何恺明最新动向来了!
AI大神何恺明正式入职谷歌DeepMind,担任杰出科学家,同时保留MIT终身副教授身份。从Meta到MIT,再到如今的谷歌,这位「学界+业界」双修的大牛,将为DeepMind的AGI注入一针强心剂。
生成模型会重现识别模型的历史吗?
扩散模型风头正盛,何恺明最新论文也与此相关。 研究的是如何把扩散模型和表征学习联系起来—— 给扩散模型加上“整理收纳”功能,使其内部特征更加有序,从而生成效果更加自然逼真的图片。
何恺明团队又一力作!这次他们带来的是「生成模型界的降维打击」——MeanFlow:无需预训练、无需蒸馏、不搞课程学习,仅一步函数评估(1-NFE),就能碾压以往的扩散与流模型!
《自然》杂志统计了 5 个数据库,给出了论文引用 Top 25 名单。
澳大利亚国立大学团队提出了ARINAR模型,与何凯明团队此前提出的分形生成模型类似,采用双层自回归结构逐特征生成图像,显著提升了生成质量和速度,性能超越了FractalMAR模型,论文和代码已公开。
何恺明团队提出的去噪哈密顿网络(DHN),将哈密顿力学融入神经网络,突破传统局部时间步限制,还有独特去噪机制,在物理推理任务中表现卓越。
何恺明LeCun联手:Transformer不要归一化了,论文已入选CVPR2025。
Transformer架构迎来历史性突破!刚刚,何恺明LeCun、清华姚班刘壮联手,用9行代码砍掉了Transformer「标配」归一化层,创造了性能不减反增的奇迹。