联结主义是 AI 领域中的一个重要流派。早在 20 世纪 50 年代 AI 确立以来,就出现了符号主义和联结主义两个流派。联结主义模仿人类大脑神经元连接来实现机器智能。
在最初的 20 多年里,因算力和神经网络算法限制,符号主义占据主流,但仍有少数如约翰·霍普菲尔德、欣顿教授等为联结主义理想奋斗。欣顿教授对 AI 领域的重大贡献是反向传播算法,这让人工神经网络实现了“学习”,是几乎所有机器学习模型的基石。
2012 年开始,欣顿教授和他的学生建立的神经网络 AlexNet 在图像识别方面击败当时最先进的逻辑程序,使错误率大幅降低。此后,深度神经网络使用呈爆炸式增长。
联结主义不仅在技术上突破,还在哲学和认知科学领域产生深远影响,为心灵哲学提供新视角,强调经验主义和适应性学习重要性,推动对学习机制和知识表示的理解。但也面临挑战,如需要大量训练数据和计算资源,神经网络“黑箱”问题难以解释内部决策过程。
尽管有挑战,联结主义和神经网络研究为深度学习发展奠定基础,在图像识别、语音识别和自然语言处理等领域取得重大突破,也推动了跨学科研究和合作。
早在20世纪50年代,AI作为计算机领域的一门学科被确立以来,如何让机器能够像人类一样思考,处理自然语言、读懂图像、做逻辑推理,当时就出现了两个流派。一个是主张用人类归纳知识的逻辑形式来实现机器智能的“逻辑学派”,另一个是模仿人类大脑神经元连接来实现机器智能的“仿生学派”,这两个学派分别代表了符号主义(Symbolicism)和连接主义(Connectionism)。神经元的复仇-[Neurons spike back](https://mazieres.gitlab.io/neurons-spike-back/index.htm?ref=indigox.me)在最初的20多年里,因为感知器模型([Perceptron Model](https://towardsdatascience.com/perceptron-learning-algorithm-d5db0deab975?ref=indigox.me))的发明,仿生学派一直是AI研究的主要方向,但受制于当时的算力和神经网络的算法,在计算机编程语言的快速进化的压力之下,用程序逻辑来实现机器智能的“符号主义”开始大行其道。只有以约翰·霍普菲尔德([John Hopfield](https://en.wikipedia.org/wiki/John_Hopfield?ref=indigox.me))为代表的少数研究人员还在为“连接主义”的理想而奋斗,欣顿教授就是其中之一。
采访中,欣顿教授透露,因为不愿意接受五角大楼的资助,在20世纪80年代,他辞去了卡内基梅隆大学计算机科学教授的工作,只身前往加拿大多伦多大学,继续从事神经网络的研究。欣顿教授对AI领域最大的贡献是一种叫作反向传播([Backpropagation](https://en.wikipedia.org/wiki/Backpropagation?ref=indigox.me))的算法,这是他与两位同事在20世纪80年代中期首次提出的,这项技术让人工的神经网络实现了“学习”,如今它几乎是所有机器学习模型的基石。简而言之,这是一种反复调整人工神经元之间连接权重的方法,直到神经网络产生能达到预期的输出。连接主义的全面逆袭从2012年开始,那年欣顿教授和他在多伦多大学的两名学生伊尔亚·苏茨克维([Ilya Sutskever](https://en.wikipedia.org/wiki/Ilya_Sutskever?ref=indigox.me))和亚历克斯·克里切夫斯基([Alex Krishevsky](https://en.wikipedia.org/wiki/Alex_Krizhevsky?ref=indigox.me))建立了一个神经网络——[AlexNet](https://en.wikipedia.org/wiki/AlexNet?ref=indigox.me),可以分析成千上万张照片,并教会人们识别常见的物体,如花、狗和汽车。使用反向传播算法训练的卷积神经网络([Convolution Neural Networks](https://en.wikipedia.org/wiki/Convolutional_neural_network?ref=indigox.me),CNN)在图像识别方面击败了当时最先进的逻辑程序,几乎使以前的错误率降低了一半。从2012年到现在,深度神经网络的使用呈爆炸式增长,进展惊人。现在机器学习领域的大部分研究都集中在深度学习方面,人类第一次开启了AI的潘多拉魔盒!
联结主义不仅在技术上取得了突破,它还在哲学和认知科学领域产生了深远的影响。它为心灵哲学提供了一种新的视角,即心灵状态可以通过不同的物理实现来实现,这一观点与传统的符号主义方法形成了鲜明对比。同时,联结主义也强调了经验主义和适应性学习的重要性,推动了对学习机制和知识表示的深入理解。尽管联结主义取得了巨大的成功,但它也面临着一些挑战和批评。例如,神经网络模型通常需要大量的训练数据和计算资源,这在某些情况下可能成为一个限制。此外,神经网络的“黑箱”问题也受到了批评,因为它们的内部决策过程往往难以解释和理解。尽管存在挑战,联结主义和神经网络的研究为深度学习的发展奠定了基础。深度学习模型,如卷积神经网络(CNN)和递归神经网络(RNN),在图像识别、语音识别和自然语言处理等领域取得了重大突破。同时,联结主义也推动了计算机科学与神经科学、认知科学的进一步融合,促进了跨学科的研究和合作。联结主义,以神经之网捕捉世界的复杂,用并行之光点亮智能的火花。