2018年2月7日
[本篇访问: 375]
陶孝云:深度学习缺乏直接意义性

在这个人工智能复苏的新时代,深度学习已被广泛用于语音与图像识别、机器翻译、机器人控制和风险管理等领域,宛然成为人工智能中的核心技术。基于深度学习的人工智能已经能够实现人们过去所期待的很多功能,这让我们感到真正的人工智能(具备当前人类智能所特有的功能)已经越发成为可能,甚至“奇点”(机器智能全面超越人类智能的点)好像如未来学家库兹韦尔(Ray Kurzweil)所预言的那样在不断临近。

深度学习“第一步的谬误”

逻辑学家巴尔-希列尔(Yehoshua Bar-Hillel)在人工智能发展早期便指出,关于人工智能的乐观主义可能是一种“第一步的谬误”。这种谬误在于,只要我们在实现人工智能的研究道路上做到了成功的第一步,那么接下来的任何一点改进都会被看作是朝最终目标前进了一步。哲学家德莱弗斯(Hubert Dreyfus)在几年前细数了半个世纪以来人工智能发展过程中的六个“第一步的谬误”:有效的老式人工智能(GOFAI);表征相关性的框架问题;具备专家专长的专家系统;拒斥表征的Cog机器人;表征背景熟悉性的常识知识问题;奇点临近。指向这六个目标的人工智能的设计改进,并没有使人工智能向真正的智能发展。

这几年深度学习的兴起又给人们带来了这种“第一步的谬误”。深度学习是有着三十多年历史的反向传播算法的新版本,它基于一种抽象的神经元模型。神经元层级将一个信号(如声波的振幅或图像的像素亮度)映射到对这个信号的含义更为明确的高层描述中(如该声波传达的文字或图像中的物体)。反向传播最初只能在两三层神经元中工作,而现在的新版算法可以在更多层级的神经元中工作,使得网络层级越来越深,类似于大脑中相关联的神经元之间的“深度”层级,因而被称为“深度学习”。

目前最为流行的深度学习算法主要有需要人为标记数据的监督式学习算法和不需要人为标记数据的无监督式学习算法,但这两种算法都只是统计学中期望最大化算法的特例。所以,基于此类算法的人工智能只是统计学算法的展示,而并不能真正具有智能与思维。这种在统计学意义上基于输入的数据和输出的结果进行学习的机制,带来的只是类似行为主义的“黑箱”系统,并不能让我们理解真正的智能,它实际上还是一种“第一步的谬误”。

当前机器智能存在框架问题

深度学习算法的一个经典应用是对图像的识别,但当前的深度学习算法在对图像的理解上还不具有类似人类的图片理解能力。人们对它会超越并控制人类的担忧,是由于人们将其性能表现与实际能力相混淆。实际上这是一种由范畴谬误引发的担忧,即把它所展现出的一些特定的性能表现误认为它具有某种类似人类的能力。

人类所具有的知觉理解与行动的能力基于生活世界的经验,这种经验通过意义性与相关性组织起来。意义性本身是不能通过我们对物理事实赋予意义来构造的,因为我们并不是直接经验到物理刺激再给出它们情境意义性和相关性的,而是在经验中直接获得意义性和相关性。目前包括深度学习在内的人工智能设计,恰恰陷入了这种对无意义的物理刺激构造意义性和相关性的泥潭之中,因为它们仍然植根于一种笛卡尔主义框架。这种框架有两个基本原则,一是认为大脑通过它的感觉器官被动接收来自外界的输入;二是认为大脑通过在这些刺激信息中抽象出特征,并将它们关联起来,构建出关于世界的表征。

不管是GOFAI之路,还是当前盛行的神经网络深度学习进路,都基于这种框架。GOFAI的没落已经让我们领略到了依据这一框架所带来的设计问题,尤其是它面临着不可解的框架问题。在神经网络深度学习进路中,这一框架体现在依据设计者所定义的网络输出的成功或失败来增加或减少模拟神经元之间的连接的权重。因为人工神经网络本身并没有任何目的追寻,所以意义性对其而言是一种外在赋予。

这一进路的最大问题是理解大脑如何将相关特征绑定在一起而经验到,即大脑如何将由相互独立的接收器所获得的相互分离的特征组织关联起来。例如,在当前的输入中,黄色是与方形还是圆形相关?这就是神经网络版的人工智能框架问题,即大脑如何将表征当下世界的一些事实与其他事实关联起来。如同框架问题一样,只要心灵、计算机或大脑被当成是被动地接收无意义的输入,并且这些输入需要被赋予意义性和相关性时,绑定问题就不可解决。

人类智能直接获得意义性

梅洛-庞蒂和德莱弗斯等哲学家认为,我们的身体性技能使我们直接获得意义性并做出反应,并且在对世界相关变化的感觉与反应中,我们的技能会不断加以改进。例如在一间教室里,我们学会忽视教室里的大多数情况而集中精力听课,但是当房间变热时,窗户就会诱使我们去打开它;我们也学会忽视粉笔落下的粉尘而去关注黑板上的粉笔字;我们默认黑板上所写的字是不会影响窗户的,并且我们打开窗户的行动也不会影响黑板上所写的内容。在不断改善我们的背景性技能知识时,我们对教室中的事物和教室布局就越来越熟悉,它们本身也越来越具有意义性,并且当一个行动同某个事物存在相关性时,这个事物就会自动吸引我们去做出那个行动。这样,我们就变得越来越善于处理变化的情境。

在这种情境中,只有在过去的经验中某事物是有意义的,我们才对它在当前情境中的变化加以反应。甚至当我们感觉到一个重大的变化时,我们也把其他事物视为不变的,除非在我们所熟悉的世界中有些事物已经发生了改变并且需要重新检查。这样,对于有机体来说,就不会出现框架问题。如果我们放弃笛卡尔主义框架所主张的需要将相分离的、无意义的事实和事件相互关联起来的原则,而是看到所有的事实和事件都是在一个熟悉的世界背景中经验到的,我们就能突破现有的包括机器学习在内的人工智能设计所面临的最大难题。

总的来说,我们直接获得意义性而提升对相关性更加敏感的方式,取决于我们对自身需求、身体和心理因素以及社会文化环境等相关意义性的反应。如果不能设计出能够响应环境意义性的智能模型,那么我们让人工智能实现真正智能的梦想将很难照进现实。

(作者单位:南京大学哲学系)