Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

联结主义的胜利

Answer

联结主义是 AI 领域中的一个重要流派。早在 20 世纪 50 年代 AI 确立以来,就出现了符号主义和联结主义两个流派。联结主义模仿人类大脑神经元连接来实现机器智能。

在最初的 20 多年里,因算力和神经网络算法限制,符号主义占据主流,但仍有少数如约翰·霍普菲尔德、欣顿教授等为联结主义理想奋斗。欣顿教授对 AI 领域的重大贡献是反向传播算法,这让人工神经网络实现了“学习”,是几乎所有机器学习模型的基石。

2012 年开始,欣顿教授和他的学生建立的神经网络 AlexNet 在图像识别方面击败当时最先进的逻辑程序,使错误率大幅降低。此后,深度神经网络使用呈爆炸式增长。

联结主义不仅在技术上突破,还在哲学和认知科学领域产生深远影响,为心灵哲学提供新视角,强调经验主义和适应性学习重要性,推动对学习机制和知识表示的理解。但也面临挑战,如需要大量训练数据和计算资源,神经网络“黑箱”问题难以解释内部决策过程。

尽管有挑战,联结主义和神经网络研究为深度学习发展奠定基础,在图像识别、语音识别和自然语言处理等领域取得重大突破,也推动了跨学科研究和合作。

Content generated by AI large model, please carefully verify (powered by aily)

References

让机器理解世界 / GPT 时代人类再腾飞·译者序

早在20世纪50年代,AI作为计算机领域的一门学科被确立以来,如何让机器能够像人类一样思考,处理自然语言、读懂图像、做逻辑推理,当时就出现了两个流派。一个是主张用人类归纳知识的逻辑形式来实现机器智能的“逻辑学派”,另一个是模仿人类大脑神经元连接来实现机器智能的“仿生学派”,这两个学派分别代表了符号主义(Symbolicism)和连接主义(Connectionism)。神经元的复仇-[Neurons spike back](https://mazieres.gitlab.io/neurons-spike-back/index.htm?ref=indigox.me)在最初的20多年里,因为感知器模型([Perceptron Model](https://towardsdatascience.com/perceptron-learning-algorithm-d5db0deab975?ref=indigox.me))的发明,仿生学派一直是AI研究的主要方向,但受制于当时的算力和神经网络的算法,在计算机编程语言的快速进化的压力之下,用程序逻辑来实现机器智能的“符号主义”开始大行其道。只有以约翰·霍普菲尔德([John Hopfield](https://en.wikipedia.org/wiki/John_Hopfield?ref=indigox.me))为代表的少数研究人员还在为“连接主义”的理想而奋斗,欣顿教授就是其中之一。

让机器理解世界 / GPT 时代人类再腾飞·译者序

采访中,欣顿教授透露,因为不愿意接受五角大楼的资助,在20世纪80年代,他辞去了卡内基梅隆大学计算机科学教授的工作,只身前往加拿大多伦多大学,继续从事神经网络的研究。欣顿教授对AI领域最大的贡献是一种叫作反向传播([Backpropagation](https://en.wikipedia.org/wiki/Backpropagation?ref=indigox.me))的算法,这是他与两位同事在20世纪80年代中期首次提出的,这项技术让人工的神经网络实现了“学习”,如今它几乎是所有机器学习模型的基石。简而言之,这是一种反复调整人工神经元之间连接权重的方法,直到神经网络产生能达到预期的输出。连接主义的全面逆袭从2012年开始,那年欣顿教授和他在多伦多大学的两名学生伊尔亚·苏茨克维([Ilya Sutskever](https://en.wikipedia.org/wiki/Ilya_Sutskever?ref=indigox.me))和亚历克斯·克里切夫斯基([Alex Krishevsky](https://en.wikipedia.org/wiki/Alex_Krizhevsky?ref=indigox.me))建立了一个神经网络——[AlexNet](https://en.wikipedia.org/wiki/AlexNet?ref=indigox.me),可以分析成千上万张照片,并教会人们识别常见的物体,如花、狗和汽车。使用反向传播算法训练的卷积神经网络([Convolution Neural Networks](https://en.wikipedia.org/wiki/Convolutional_neural_network?ref=indigox.me),CNN)在图像识别方面击败了当时最先进的逻辑程序,几乎使以前的错误率降低了一半。从2012年到现在,深度神经网络的使用呈爆炸式增长,进展惊人。现在机器学习领域的大部分研究都集中在深度学习方面,人类第一次开启了AI的潘多拉魔盒!

AI-Agent系列(一):智能体起源探究

联结主义不仅在技术上取得了突破,它还在哲学和认知科学领域产生了深远的影响。它为心灵哲学提供了一种新的视角,即心灵状态可以通过不同的物理实现来实现,这一观点与传统的符号主义方法形成了鲜明对比。同时,联结主义也强调了经验主义和适应性学习的重要性,推动了对学习机制和知识表示的深入理解。尽管联结主义取得了巨大的成功,但它也面临着一些挑战和批评。例如,神经网络模型通常需要大量的训练数据和计算资源,这在某些情况下可能成为一个限制。此外,神经网络的“黑箱”问题也受到了批评,因为它们的内部决策过程往往难以解释和理解。尽管存在挑战,联结主义和神经网络的研究为深度学习的发展奠定了基础。深度学习模型,如卷积神经网络(CNN)和递归神经网络(RNN),在图像识别、语音识别和自然语言处理等领域取得了重大突破。同时,联结主义也推动了计算机科学与神经科学、认知科学的进一步融合,促进了跨学科的研究和合作。联结主义,以神经之网捕捉世界的复杂,用并行之光点亮智能的火花。

Others are asking
COMfyui的文本联结节点怎么添加text3、text4
要在 ComfyUI 中添加 text3 和 text4 ,可以参考以下步骤: 1. 新建采样器:右键搜索找到 SDXL Sampler 点击即可。 2. 点击从 SDXL Sampler 采样器中的 Base_model 拖拽出选择 Load Checkpoint 节点,改名为 SDXL,并复制一个改名为 Refiner 连接到 SDXL Sampler 采样器中的 Refiner_model 。 3. 点击从 SDXL Sampler 采样器中的 Base_positive 拖拽出选择 Clip Text Encode 节点,改名为 Prompt ,复制一个并改名为 Negaive Prompt 。 4. 将 Text 改为输入 Convert text to input ,并复制出来 4 个,左边将 2 个连接 SDXL 的 Clip ,两个连接 Refiner ,右边依次连接 Base_Positive 、Base_Negaive 、Refiner_Positive 、Refiner_Negaive 。 5. 从节点中拉出一个通用节点并连接 text 。 6. 在文本节点上单击右键,选择【转换文本为输入】,此时,文本节点上就多了一个文本的连接点。 7. 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 8. 将元节点与文本节点相连接,这时元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 9. 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2025-03-07
我想通过学习ai的技能赚钱,是长久主义者
以下是为您提供的关于通过学习 AI 技能赚钱的相关信息: 首先,阳萌认为在 AI 学习中,最后还是走仿生的方法,即有一个足够长的 Context。这引发了关于记忆保存位置的探讨,比如手机适合收集信号产生本地 Context,阳萌赞成将训练好的模型部署在端侧,记录知识和记忆的 Context 不能跑到云端。同时,要抛开表面事实,回归基础原理,找到突破关键,追求长期全局最优解,相信长期主义,持续学习,自我觉察和自我进化,因为世界是参差的,唯有持续学习能抵御未来的变化。相关视频链接: 另外,关于如何靠 GPTs/GLMs 赚钱,OpenAI 推出 GPTs 时,有人将其比作苹果时代的 AppStore。产品的核心竞争力和护城河不在于 Prompt,而在于数据和服务(定制化 Tools)。传统 SaaS 的能力会被碎片化并整合到各种 GPTs 里,OpenAI 成为流量入口。例如,WebPilot 通过开发搜索接口提供服务接入 GPTs,小红书写作专家通过收集数据和规则包装成 GPTs。靠红利赚钱不是长久之计。
2025-03-12