感谢it之家网友 sancu 的线索投递!
何恺明 mit 求职演讲,真成 ai 圈大型追星现场了!
据量子位身处现场的听众朋友传回的消息,有同学提前 3 个小时已经蹲在门口排队了。
到演讲开始前半个小时,门口的队伍据说都打了好几个弯……
来浅浅感受一下现场的氛围:
此前何恺明回归学界的消息传出,咱们就聊过,这次 job talk代表何恺明至少已经通过了 mit 的简历筛选,研究成果和能力得到了初步认可。
对于这次演讲,何恺明也是准备了超 129 页 ppt,回顾了他在 cv 领域所做的工作,涵盖 resnet、faster rcnn、mask rcnn、moco 和 mae。
在谈到未来工作方向时,何恺明还提到了 ai for science。
除了关心大神的演讲本身,还有网友注意到了何恺明的最新变化:
何恺明重返学界
目前,尚不能确定何恺明最后是否会和 mit 成功牵手。但此次演讲,是他寻求教职传闻的靴子落地。
还有网友发现,如果何恺明最终成功入职,那么他将成为 mit 被引次数最高的人。
目前,mit 全校被引用次数最高的,是化学与生物医学工程系的重量级教授 robert langer,次数为 38 万 。
而何恺明被引用次数高达 40 万 。
其中,何恺明最出圈的研究,非 resnet 莫属,在 2021 年底突破 10 万大关,如今已经涨到 15 万。
resnet 本身虽为计算机视觉领域研究,但其核心思想残差连接已经跨界成为现代深度学习模型的基本组件。
开启上一次 ai 热潮的 alphago zero 就是结合了 resnet 强化学习 蒙特卡洛搜索共同完成。而开启最新 ai 热潮的 chatgpt,其中的“t”也就是 transformer 网络中同样使用了残差连接。
在计算机视觉上,何恺明的主要贡献还包括 faster r-cnn 及后续的 mask r-cnn 等一系列研究,在很多年都是目标检测的主流方法。
他的近期主要研究兴趣是无监督学习,21 年底提出的 mae,将语言模型的掩码预训练方法用在视觉模型上,为视觉大规模无监督预训练大模型开路。最近他还将掩码方法引入众多 ai 绘画应用的基础模型 clip,把训练速度提升了 3.7 倍。
不过也有知乎匿名用户从现场发来看法:整个 talk 的质量并不好,何恺明没用一个好的故事把工作串联起来。
这是不是说明就连何恺明也不知道怎么讲好 cv 故事了。
那么,这一次你在现场吗?评论区观后感走起~
热门文章