不用恐慌,新AlphaGo离强人工智能还有十万八千里
夏永红
继去年AlphaGo以4:1的成绩战胜李世石之后,最近一周在线上横扫围棋棋坛、四处挑战围棋高手并取得60连胜的神秘棋手Master终于揭开面纱,正式新版的AlphaGo,对人工智能的恐慌又弥漫社交网络。在研究认知与心灵哲学的夏永红看来,虽然AlphaGo的算法设计非常精妙,它仍然基于对大数据的暴力统计运算,这和人类智能的运作过程完全是两回事。
“思维是人类不朽灵魂的一种机能,因此任何动物和机器都不能思维。”
“机器思维的后果太可怕了,我们希望并且相信机器做不到这一点。”
“哥德尔定理表明,任何形式系统都是不完备的,它总会面临自身不能判定的问题,因此机器难以超越人心。”
“机器没有现象意识体验,它没有思想也没有感情。”
“机器没有像人一样丰富多彩的能力。”
“机器无法创造出什么新的东西。它所能做的都是那些我们知道怎样命令它去执行的事情。”
“神经系统不是离散状态的机器,机器不能模拟它。”
“要将所有指导行为的常识形式化是不可能的。”
“人有心灵感应的能力,而机器没有。”
这些对人工智能(artificial intelligence,以下简称AI)的反对意见,是AI先驱阿兰·图灵在他的著名论文《计算机器与智能》(1950年)中最早罗列的。虽然图灵已经对它们做过初步的批驳,但几乎所有后来对AI的各种反驳论证,都可以从这些观点中找到它们雏形。从AI诞生之日起,对它的各种质疑和批判,就一刻也没有停止过。
然而,继Alphago去年三月战胜李世石,最近又化身Master扫荡中日韩顶尖高手之后,这些观点似乎已经销声匿迹了。已经没有多少人怀疑,AI将在一个所谓的奇点(singularity),全面超越人类的智能,唯一有争议的,只是奇点什么时候到来。甚至那些敌视AI的人,也并不怀疑奇点的可能性,唯一担忧的竟然是人类可能被AI淘汰。然而,这种盲目乐观主义,既可能不负责任地伤害AI的未来发展——期望越高失望越大,也缺乏对当前AI的严格审视——如果我们了解Alphago是如何运作的,将会发现它仍然共享了所有AI所面临的哲学难题。
一、人工智能为何不智能?
图灵所列举的那些批判,有很多在后来都发展成了更为精细的论证。比如,基于哥德尔定理的批判后来被哲学家卢卡斯和物理学家彭罗斯进一步发展;常识不可形式化的难题,后来出现在框架问题和常识问题中;机器只是机械地按照规则行动,而不能自主思考,是后来的中文屋论证和符号奠基问题关切的核心;机器没有现象意识体验,是那些主张第一人称体验和感受质的心灵哲学家们针对AI的主要观点。
(1)框架问题是困扰AI最严重的问题之一,至今仍然未得到有效的解决。AI最初的范式是符号主义,基于符号逻辑来对世界进行表征。框架问题就是内在于AI的表征过程的一个难题。认知科学家丹尼特举过这样的例子来描述框架问题:我们对机器人发出指令:进入一个放着定时炸弹的房间,将里面的一块备用电池取出来。但是由于炸药是和电池都在一个小车上,机器人推车取出电池的时候也会一块推出炸药。于是,炸药爆炸了……我们可以让机器人推演出一个动作所导致的附带效果,来避免这种事故。于是,机器人进入房间之后,它开始计算推出车之后会不会改变房间墙壁的颜色,会不会改变车子的*……它不知道哪些结果与它的目标相关,哪些不相关。就在它陷入无限的计算推演的时候,炸药爆炸了……我们再次对这个机器人作出改进,教他区分哪些附带效果和任务相关,哪些不相关,但就在这个机器人计算哪些相关,哪些无关的时候,炸药再次爆炸了。
当一个机器人作用于外部世界的时候,世界中的某些事物就可能会发生变化,机器人就需要对内部的表征作出更新。但什么事物会变化,什么事物不会变化,机器人本身却并不知道,这就需要设定一个框架来规定变化的相关项。但这个框架一方面本身就过于繁冗,另一方面又依赖于具体情境从而更加繁冗,最终会远远超出计算机的负荷。这就是所谓的框架问题。
这个问题也常常关联着AI表征中的另一个问题,比如常识问题。我们都知道所谓的阿西莫夫的机器人三律令,即机器人不得伤害人类(人类遇到危险它也必须设法解救),必须服从人给予它的命令,尽可能保护自己的生存。但实际上,这三定律是很难作为机器人的指令存在的,因为它们并不是规则明晰、可以有效操作的指令。比如,救人这条律令,在不同的情境下有不同的执行手段。当一个人上吊的时候,救他的办法是剪断绳子;但当一个人在五层楼的窗户下拉着一条绳子呼救的时候,救他的办法就是拉起而不是剪断那条绳子。于是,让人三律令工作起来,就必须对大量的背景知识进行形式化。可惜的是,1980年代AI第二次浪潮中的专家系统和知识表征工程,就是因为无法处理常识表征的问题而最终失败。
(2)AI的另一个难题就是中文屋论证以及由此衍生出来的符号奠基问题。心灵哲学家塞尔设计过这样一个思想实验,他假定自己被关在一个密闭的屋子中,屋子中有一本英文说明手册,它描述了如何根据汉字的字形(而不是语义),给出一个中文问题对应的中文答案。中文屋中的塞尔从窗口接收中文问题,然后根据这本英文手册,给出相应的中文答案。从中文屋外面的人看来,似乎塞尔是懂得中文的。但实际上,塞尔根本不理解这些中文问题和答案的任何意义。在塞尔看来,数字计算机就类似于中文屋中的塞尔,它只是根据物理和句法规则来进行符号串的加工处理,却完全不理解这些符号的意义。即便计算机表现出了和人类相似的智能行为,但计算机的工作归根结底是对符号的处理,但这些符号的意义也并不是计算机所能理解或自主生成的,而是依赖于它们在人类头脑中的意义。
图片来源:《视读人工智能》,第50页。
后来认知科学家哈纳德在塞尔的基础上,提出了所谓的符号奠基问题:如何让一个人工系统自主地产生符号的意义,而不需要人类的外部或预先的赋予。这个问题其实也就是如何让AI可以自主地从世界中识别出特征量,最终自主地产生与这种特征量对应的符号。“深度学习”试图解决这个问题,但其解法并不那么令人满意。
(3)现象意识问题也是人工智能的难题。前面所述的框架问题和符号奠基问题,实际上涉及的都是如何在一个形式系统中模拟人类的表征活动。但即便这些表征活动都可以被人工智能所模拟,人类意识是否可以还原为表征过程,也是一个颇富争议的问题。意识的表征主义理论认为,所有的意识过程都可以还原为表征过程,但是对于那些出身于或同情现象学传统的心灵哲学家而言,意识包含人类心智中不可消除的主观意识体验。我们一般将这种第一人称体验称之为感受质或现象意识。心灵哲学家内格尔写过一篇有名的文章《成为一只蝙蝠是一种什么体验?》,在他看来,即便我们掌握了关于蝙蝠的所有神经生物学知识,仍然无法确切地知道蝙蝠的内在意识体验。查尔莫斯也有过类似的假定,比如我们可以假定存在这样一个僵尸,它的一切活动都表现得像人类一样,然而,它却缺乏人类最本质的现象意识体验。在他们看来,意识体验是无法用表征过程来模拟的。如果这个理论成立的话,表征与意识就是两个不同的概念,即便强人工智能是可能的,那么它也并不必然就具有意识。
二、Alphago真的智能了吗?
那么,Alphago是否就真的那么具有革命性,成为AI发展的一个里程碑呢?实际上,Alphago并没有采用任何新的算法,从而也就共享了这些传统算法的局限。
Alphago的基本设计思路是,基于监督式学习与强化学习两种模式,通过构造两个神经网络即决策网络和价值网络来评估棋盘位置和决定走子动作。Deepmind的工程师首先采用监督式学习,根据大量的人类棋局数据训练了一个策略网络,它可以从这些棋局中学习人类棋手的走子定式之后。但学会这些定式并不能成为高手,还需要对走子之后的棋局作出评估,从而选择最佳的走法。为此,Deepmind采用了强化学习的办法,根据之前训练出来的策略网络不断地自我对弈(人类棋局的数据远远不够了),训练了一个强化学习的策略网络,它的学习目标不再是模拟人类棋手的走法,而是学习如何赢棋。Alphago最具创新性的地方在于,它根据这些自我对弈的数据,训练了一个估值网络,可以对整个盘面的优劣作出评估。与人类对弈的时候,Alphago应用了蒙特卡洛搜索树来整合这些神经网络。首先,策略网络可以搜索出各种走法,然后估值网络来对这些盘面的胜率进行评估,最终决定走法。相比于传统的单纯暴力搜索,因为策略网络形成了定式走法,估值网络在对这些走法进行评估删减,最终可以大大减少搜索的宽度和深度。
相比于传统AI,近几年来的深度学习,以及Alphago所复兴的强化学习,他们已经表现了人类智能中从样本数据和环境反馈中不断学习的能力。但总体来看,虽然Alphago的算法设计非常精妙,它仍然基于对大数据的暴力统计运算,这和人类智能的运作过程完全是两回事。Alphago进行了几千万局的对弈,并对这些局面进行统计分析,然后才得到了与人类同样的棋力。但一个天才棋手达到同等程度的棋力,只需要下几千盘棋,不到Alphago的万分之一。因此,Alphago的学习效率仍然是十分低下的,这说明,它仍然没有触及到人类智能中最本质的部分。
更关键的是,深度学习仍然不能免于那些困扰传统AI的理论难题。比如说机器人的框架问题,需要对机器人所处的复杂和动态环境做出实时的表征。应用现在的深度学习,可能是一个难以完成的任务。因为深度学习适用的领域,仍然局限于对大样本图像和语音数据的处理。一个动作可能会带来哪些附带的后果,这样的数据因为高度语境依赖,而且难以以大数据的形态存在,因而就不可能用大数据来对机器人进行训练。最终,要生成一个具有人类常识信念的神经网络就是非常困难的,框架问题仍然难以解决。
此外,深度学习由于需要大量的训练样本的植入,在训练过程中需要不断地调整参数,来获得想要的输出。比如,Alphago的监督式学习训练出来的策略网络,就需要人类的棋局作为训练样本,而且训练过程中也需要人工设定特征参数。在这样的情况下,神经网络与世界之间的对应关系,仍然是人为设定,而不是神经网络自主生成的。深度学习也不能完全解决符号奠基问题。
三、与其警惕人工智能,不如警惕哲学家
相比于其他工程学领域,AI可能是与哲学联系最为紧密的一个学科。在人工智能哲学史上,很多哲学家都试图用一些替代的思想资源,来改进人工智能的技术方案。而哲学也在这个过程中,扮演了牛虻的角色,通过不断澄清人类智能和认知的本质,来检视AI的弱点和限度,最终激励AI的研究。在所有哲学家中,被人工智能研究者所援引最多的作者,可能就是海德格尔和维特根斯坦。
早在AI的符号主义时代,美国的海德格尔专家德雷福斯就批判了当时的AI。无论AI的算法多么复杂,都可以归结为用符号逻辑或神经网络来表征世界,然后基于对这些表征的高效处理来规划行动。然而,这并不完全符合人类的行为模式。在德雷福斯看来,人类的大量行为并不涉及表征,行动者直接与环境进行实时交互,并不需要在头脑中表征出世界的变化之后再规划行动。后来MIT的布鲁克斯就采用了这种“无表征智能”的方案(虽然布鲁克斯不承认德雷福斯对他的影响,但据德雷福斯说,这个idea源于布鲁克斯实验室的某个学生选修了他的哲学课),设计过一个可以实时响应环境的机器人“成吉思”。
除了海德格尔,维特根斯坦也是AI批判的另一个风暴中心。维特根斯坦在1939年左右,在剑桥主讲过一门数学基础的课程,而我们开篇提到的人工智能先驱图灵正好选修过这门课程。后来有一部科学小说《剑桥五重奏》便安排了两人关于机器能否思维展开了一番唇枪舌剑,其中一部分素材就是取自于两人在课上的争论。在维特根斯坦看来,人类与机器虽然都是遵循一定的规则而行动的,然而,规则对于机器而言是构成性的,因为它的运作就必须依赖于规则,但对于人类而言,遵守规则就意味着有意识地遵守它。但维特根斯坦对AI影响最大的是他晚期关于语言的学说。维特根斯坦早期认为,语言就是由一系列可以通过符号逻辑来描述的命题构成的集合,而世界也是由事实组成的,这样,命题就是事实的逻辑图象,我们就可以通过命题来刻画世界。这个思想与AI的观念是完全同构的。然而,维特根斯坦晚期放弃了这些观念,他认为语言的意义不在于基本命题的组合,而在于它的用法,正是我们对语言的使用决定了它的意义。因此,像传统AI那样试图建立符号与对象之间的固定联系,是徒劳无功的,语言的意义只有在其使用中才能建立。基于这个观念,一些AI专家比如斯蒂尔就用它来解决符号奠基问题。他设计了这样一个机器人种群,其中一个机器人看到一个对象比如说箱子之后,随机生成了一个符号串比如Ahu来代表它,然后,它将Ahu这个符号传达给另一个机器人,让它猜谜,看哪一个对象对应着Ahu,如果这个机器人正确地指出了Ahu对应的箱子,就传达给它一个正确的反溃于是,这两个机器人获得了一个代表Ahu的词汇。斯蒂尔将这个过程称之为自适应语言游戏,通过不断地进行这种游戏,这个机器人种群就可以获得关于它们周围世界的语言描述,从而将符号的意义自主地奠基于世界之中。
然而,这些进路在AI历史上一直是十分边缘的,因为它们所依赖的技术资源都太过简单,要完整地模拟人类的身体和生活世界,其难度甚至要超过传统AI用形式体系来表征世界。但如果海德格尔和维特根斯坦对于人类智能本质的理解是正确的话,那么未来的AI仍然不可避免地需要一种具身的和分布的方案。比如,赋予AI一个身体,让它可以从环境(而不是训练数据)中直接获取特征量,让它在与环境和其他能动者的交互中学习指导人类行动的常识和语言。这可能是通往通用AI的唯一道路。
然而,这种具身的通用AI可能也是人类的取灭之道。因为只要AI有了自身的历史、周围世界和生活形式,它最终也可以摆脱人类的训练和反馈激励,具有自己的欲望和目标。一旦它有了自己的欲望,并基于这种欲望来规划自己的行动,在它对环境的不断适应和调整中,将进入演化的轨道之中,成为一个新的物种。如果人类和它们产生生存上的冲突和竞争,由于人类在机能上的有限性,很可能会面临被淘汰的命运。
因此,从哲学上看,我们担心的并不是AI研究无视海德格尔和维特根斯坦这样的人工智能(潜在)敌对者的论点,因为一个专用的弱AI才是好AI,我们更担心的毋宁是AI研究者采信了它们的观点,将现在的深度学习和强化学习与具身机器人学结合起来。
AlphaGo并不可怕,可怕的是它有了自己的身体、意识、欲望和情感。