1681290914484551.png

杰弗里·埃弗里斯特·辛顿(Geoffrey Everest Hinton,1947年12月6日-)是一位英国出生的加拿大计算机学家和心理学家,目前担任多伦多大学教授。他因在类神经网络领域的杰出贡献而闻名,是反向传播算法和对比散度算法的发明人之一,同时也是深度学习的积极推动者,被誉为“深度学习之父”。Hinton与Yoshua Bengio(约书亚·本希奥)和Yann LeCun(杨立昆)一同因在深度学习领域的突出贡献被授予了2018年的图灵奖。

教育经历

Hinton于1970年在英国剑桥大学获得实验心理学学士学位。此后于1978年在爱丁堡大学获得人工智能博士学位。此后曾在萨塞克斯大学、加州大学圣迭戈分校、剑桥大学、卡内基梅隆大学和伦敦大学学院工作。他是盖茨比计算神经科学中心的创始人,目前担任多伦多大学计算机科学系教授。Hinton是机器学习领域的加拿大首席学者,也是加拿大高等研究院赞助的“神经计算和自适应感知”项目的领导者。Hinton在2013年3月加入Google,同时Google并购了他创办的DNNresearch公司。

研究成果

Hinton的研究探索了将神经网络应用于机器学习、记忆、感知和符号处理的方法,他共同撰写或合作撰写了200多篇经过同行评审的出版物。在2022年的神经信息处理系统大会(NeuRIPS)上,Hinton介绍了一种名为“Forward-Forward”算法的新的神经网络学习算法。该算法使用两个正向通路代替传统的正向-反向通路,一个通路具有真实数据,另一个通路具有虚假数据,这两个通路都由网络自身生成。

在担任卡内基梅隆大学教授期间(1982-1987),Hinton与David E.Rumelhart和Ronald J.Williams共同将反向传播算法应用于多层神经网络。他们的实验表明,这种网络可以学习有用的数据内部表示。在2018年的一次采访中,Hinton表示,“David E.Rumelhart提出了反向传播的基本想法,所以这是他的发明。”尽管这项工作对推广反向传播很重要,但他并不是第一个提出这种方法的人。Seppo Linnainmaa于1970年提出了反向模式自动微分,反向传播是其中的一个特例,Paul Werbos于1974年提出使用它来训练神经网络。

在同一时期,Hinton与David Ackley和Terry Sejnowski共同发明了玻尔兹曼机。他对神经网络研究的其他贡献包括分散表示、时延神经网络、专家混合系统和亥姆霍兹机器。2007年,Hinton与人合著了一篇题为“图像转换的无监督学习”的无监督学习论文。有关Hinton的研究简介可以在他于1992年9月和1993年10月发表在《科学美国人》上的文章中找到。

获奖荣誉

  • 美国人工智能协会会士(1990)
  • 皇家学会会士(1998)
  • 鲁梅尔哈特奖(2001)
  • IJCAI优秀研究奖(2005)
  • IEEE弗兰克·罗森布拉特奖(2014)
  • 詹姆斯·克拉克·马克士威奖章(2016)
  • BBVA基金会知识前沿奖(2016)
  • 图灵奖(2018)
  • 阿斯图里亚斯亲王奖(2022)

标签: AI, 人工智能, 机器学习, 深度学习, AI百科, AI百科问答, 人工智能百科, AI知识库, 什么是AI