没想到,诺贝尔物理学奖竟然颁给了人工智能大佬!
没想到,诺贝尔物理学奖竟然颁给了人工智能大佬!
作者:航标
来源:航标IT精选
10月8日,瑞典皇家科学院宣布,2024 年诺贝尔物理学奖授予77岁的美国新泽西州普林斯顿大学教授约翰·霍普菲尔德(John J. Hopfield)和91岁的图灵奖得主杰弗里·辛顿(Geoffrey E. Hinton),以表彰他们“利用人工神经网络实现机器学习的基础性发现和发明”。 这一结果多少有些出乎意料,这两人的研究领域——人工智能并不属于传统物理学,因此不少人疑惑为什么诺贝尔物理学奖会颁给看似离物理学有些遥远的AI 大佬? 以物理学为基,探索AI世界 约翰·霍普菲尔德和杰弗里·辛顿都是人工智能领域的顶级专家,自上世纪 80 年代起两人就在人工神经网络领域进行研究,为人工神经网络的发展做出了重要贡献。 约翰·霍普菲尔德是普林斯顿大学分子生物学荣誉退休教授。作为物理学博士的他的一个突出贡献是在1982年基于物理学的自旋系统,提出了一种能存储和重建信息的联想记忆模型,这一模型使得神经网络可以通过不完整的输入进行自我修正,重建出原始模式——这就是著名的Hopfield网络模型。这个模型相当于描述物理学中自旋系统中的能量状态,通过查找节点之间的连接值进行训练,以便保存的图像具有低能量。 他的突破并不在于简单地构建了一个神经网络模型,还在于使用物理学的工具,特别是统计学,来解释神经元集体行为。Hopfield将大脑中的记忆存储看作是一个高度复杂的能量优化过程,而Hopfield网络利用物理学提供了一个能够描述和解释这种过程的模型。 Hopfield网络的提出终结了人工神经网络研究长达10年的低潮期,让这个研究领域再次活跃起来。 辛顿是是多伦多大学计算机科学荣誉退休教授。他的突出贡献是发明了一种可以独立发现数据属性的新方法。他利用统计物理学的工具,特别是 19 世纪物理学家路德维希·玻尔兹曼的统计模型,开发出了著名的“玻尔兹曼机”,它可以学习识别某类数据中的特征元素,这对大型人工神经网络至关重要。 辛顿认识到,数据中的模式可以通过计算“可能性”来识别,机器可以学习哪些模式更有可能出现,哪些模式则相对罕见。他在玻尔兹曼机中引入了统计概率。使得经过训练的玻尔兹曼机可以识别数据中的潜在结构和模式,并能生成与原始数据相似的新数据。 在人工智能领域,辛顿可能更出名的是他在反向传播方面的工作。这是一种训练神经网络的方法,至今仍广泛应用于人工智能项目中。他因在反向传播和玻尔兹曼机方面的工作而获得了2018年图灵奖,这是计算机科学领域的最高荣誉。辛顿于2013年加入谷歌,去年因为担心人工智能的潜在风险而离职。 尽管两位在人工智能领域都是赫赫有名的人物,但很显然,两人的研究都和物理学关系其实并不太大,这也是不少人认为诺贝尔奖官方在蹭人工智能的热度的原因。 不过,不管怎么说,他们的研究都与物理学有或多或少的关系,更为重要的是,他们的研究也会反哺物理学,正如诺贝尔物理学奖委员会主席指出:“得主的工作已经带来了巨大的益处。在物理学中我们在广泛的领域使用人工神经网络,例如开发具有特定属性的新材料。” 突破还需要多学科合力 一直以来,人工智能的研究有两条技术路线:符号派和连接派,它们各自代表了不同的理论和实现方法。 符号派,又称为逻辑主义,认为人工智能源于数理逻辑。该学派主张用某种符号来表示世界,认为世界是由个体(符号的集合)间的关系构成。符号主义把知识表示成离散的符号集合,然后通过推理和搜索方法求解问题。 符号派的典型应用就是专家系统。其核心思想是通过规则来实现一定程度的智能。其优点是可解释,能够处理结构化的知识,推理过程清晰,缺点是高度依赖专家,也无法发现新知识。另外,很多应用场景是无法穷尽所有规则,比如智能驾驶就无法穷尽所有路况。因此,一直没有得到真正规模化使用。 连接派,又称为仿生学派,该学派主张通过模拟大脑神经网络的结构和功能来实现人工智能。人工神经网络就是其典型实现。它的优点是能处理复杂的关系,具有自学习能力和良好的泛化能力,具有更好的应用前景。缺点是一个黑盒子,解释性弱,高度依赖训练数据。 早期由于算力和数据量的限制,加上算法本身的不成熟,符号派一度占了上风。后来在约翰·霍普菲尔德和弗里·辛顿等一批学者的努力下,再加上算力和数据的加持,人工神经网络迎来大的发展,特别是以深度学习为代表的生成式AI技术的迅速崛起带来人工智能的春天。 然而,其瓶颈也开始显现,特别是过于依赖算力和数据,GPU集群轻易突破十万张卡,需要耗费大量电力,以至于人们戏称“人工智能的尽头是电力”。即使最先进的AI系统距离其要模仿的人脑差距不是一星半点。 与当前最先进的计算机相比,人脑在能耗效率上展现出了惊人的优势。据估计,一台典型的高性能计算机执行复杂任务时,可能需要消耗数千瓦的电力,而人脑在进行同样复杂度的思维活动时,其能耗仅为20瓦左右,相当于一个普通灯泡的功率。这种能量利用效率的差异,即便是最尖端的科技也难以企及。 更令人惊叹的是,人脑在处理信息时的灵活性和适应性。据估计,人脑中约有850-1200亿个神经元,神经胶质细胞的数目则更是其10倍之多。也就是说,一个人只要在有意识地思考和行动,每分每秒都是神经元在上上下下地发挥作用。它们能协调一致同时处理海量数据(如视觉、听觉、触觉等多感官信息),并在瞬息之间做出决策,这种并行处理能力是现有计算机架构难以复制的。 人脑还具备自我学习、自我修复和创造力等高级功能,这些特性使得它在处理复杂、不确定和动态变化的环境时,展现出远超当前AI系统的智能水平。 此外,人脑通过神经元之间的复杂连接(即突触)进行信息传递和处理,这种高度非线性、动态变化的网络结构,使得人脑能够执行高度抽象和创造性的思维任务。相比之下,当前的AI系统大多基于线性代数和统计学习理论构建,虽然在处理特定任务时表现出色,但在面对需要深度理解、创新思考和情感交流的场景时,就显得力不从心。 至今人们对人脑的工作原理了解还非常有限,因此,解密人脑的工作机制,特别是理解大脑如何编码、存储和提取信息,以及如何实现自我学习和适应,成为了推动人工智能向更高层次发展的关键。这要求跨学科的合作,包括神经科学、认知心理学、计算机科学、数学和物理学等领域的专家共同努力。这也是诺贝尔物理学奖委员会主席所说的今年诺贝尔物理学奖被授予两位AI大牛的意义所在。站在这个角度或许能帮助我们理解这次有点令人意外的颁奖! |