人工智能与虚拟现实将带来怎样的伦理困境?
文/南都评论记者 王秀宁
新技术的发明常常会令人振奋,一旦普及却可能造成许多恐慌。生活在这个时代,一个切身的体会便是:技术改变我们的生活方式,也改变了千万人的职业选择。打车软件的应用近乎消灭了出租车行业大半,移动互联网与智能手机的联合,更是重构了无数传统的行业。近期,就在国家统计局公布8月CPI数据的第一时间,腾讯自动化新闻写作机器人Dream w riter(梦幻写手)写出新闻稿的消息爆炸开来,迅速成为传媒界议论的焦点。记者圈开始出现焦虑性的争论——— 到底我们何时会失业?
往前推两天,即9月8日,“2015百度世界大会”可谓万众瞩目。百度创始人李彦宏宣布推出百度智能机器人助手“度秘”,豪言要让每一个人用得起秘书。未来,记者转秘书的梦想恐怕要破灭了。再早一些,微软第三代人工智能机器人“小冰”也杀回微信,自称17岁陪人聊天是其强项。而马云提到的软银已经正在批量生产投向市场的情感机器人“pepper”,因为价格只有1万出头,可能将我们直接带进了“机器人进入普通人家”的时代。
如果将目光转向更大范围,全球性的互联网巨头如谷歌、苹果、Facebook,以及国内声名鹊起的科大讯飞、大疆科技甚至华大基因,都在向充满奥秘但商业价值庞大的“人工智能”领域迈进。一夜之间,人工智能似乎变成了互联网+之后更为火爆的概念。谁不涉及人工智能,谁似乎就要被扫入历史的垃圾堆。
时下,舆论对于人工智能充斥着误解,以及自我矛盾的两极化预言。主流的商业性报道、评论或演讲,更多看重的是这一市场的庞大、利润的可观,他们通过描绘人工智能时代生活的无限便利,来进行产品的推广抑或机构的融资。另一种带有演绎色彩的文学、科幻作品,则更乐意将人工智能的结局想象成人与智能机器人之间的对立、冲突乃至战争。
对商业价值的极度崇拜,对伦理崩塌的深度隐忧,构成了两种重要的论调。在笔者看来,商业价值的狂飙突进是大势所趋,伦理隐忧的讨论却存在种种误区。基于此,本文打算暂且搁置对人工智能商业价值的探讨,而主要聚焦我们所关心的另一个话题:人工智能将带来怎样的伦理困境?
强人工智能vs弱人工智能
人工智能很火爆,但它的定义到底是什么。查阅百度百科,定义如下:人工智能(A rtificialIntelligence),英文缩写为A I。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。研究的目标是,机器视、听、触、感觉及思维方式对人的模拟,包括指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,智能搜索,定理证明,逻辑推理,博弈,信息感应与辨证处理等等。
任何一个领域,必然存在着多个流派,人工智能领域也不例外。目前,最重要的三大流派如下:第一派是符号主义,或称计算机学派,其原理主要为物理符号系统假设和有限合理性原理。说白了,就是相信计算机的运算能力叠加,将会最终帮助机器获得*意志。第二派是联结主义,又称为仿生学派,其原理主要为神经网络及神经网络间的连接机制与学习算法。简言之,他们相信模仿人类大脑的构成,可以制造一个相同的大脑。第三种是行为主义,又称进化主义或控制论学派,其原理为控制论及感知-动作型控制系统。这一派认为智能不需要知识、表示和推理,通过在现实环境中交互,智能行为会逐步得到进化。
上述三种研究进路,当然只是一部分,虽然很主流,但在这个充满奇思妙想的人类世界里,相信还有很多怪异的研究方法,到底哪一条路才能研制出真正的“智能人”,即拥有人类思维的机器人,在事情发生之前,没有人会知道。
人工智能学科的起源,普遍被认为是1956年在美国达特茅斯大学召开的一次会议。后来,被称为“人工智能之父”的约翰·麦卡锡博士在那次会议上首次提出了人工智能的概念,他认为:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。不过,这个定义不够精准。目前,对人工智能的定义大多被划分为四类,即机器“像人一样思考”、“像人一样行动”、“理性地思考”和“理性地行动”。这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。
由此,也诞生了“强人工智能”和“弱人工智能”的区分,即机器的思考和推理就像人的思维完全一样,就是强人工智能,而如果机器只是部分拥有人的思维、推理、情感、行动能力,就算是弱人工智能。我们前面提到的腾讯的“梦幻写手”、百度的“度秘”、微软的“小冰”、软银“pep-per”以及苹果iO S系统的“siri”,都只是在思维上部分拥有人类的推理、情感或其他能力,所以都属于弱人工智能。目前流行的智能家具、智能汽车、无人机、智能手机,也都是弱人工智能的体现。
人工智能的伦理陷阱
接续上文的论述,所以,伦理的讨论也分为强人工智能和弱人工智能两部分。
首先,按照强人工智能的定义,我们可以得出该机器人获得了人类完全的思维能力,他(暂且用“他”)拥有我们相同的思维、情感、创造力乃至不可预测性。那么,问题来了,他到底是机器人还是我们所认为的人类?
疑问1:他身体构成的材料与我们完全不一样,也许是硅胶,或者是别的东西,总之不是我们这样的血肉之躯。那么,他还是人类吗?
回答:关于人的定义,核心在于身体还是具备人的思维意识,这一点需要考虑清楚。安装假肢的残障人士也有非血肉材料,只是比例较校然而,伴随3D打印器官的投入使用,人体越来越多的部分都可能不是血肉之躯,但我们不会认为他们就不是人类范畴了。所以,只要思维一致或者更加抽象地说,拥有*意志,那么不管他是什么做的,就已经属于人类范畴了。
疑问2:他并非人类繁衍的产物,他没有生理学意义上的父母,更像是一个怪物,所以还是人类吗?
回答:试管婴儿在今天已经非常普遍,克隆如果不被禁止,克隆出的产物也会被认为是人类,正如“多利”不会被认为不是羊。未来,人工智能无论通过什么方法,如果最终能够制造出具有人类思维的机器人,那么应该赋予其基本的“*”,承认其人类的身份。
所以,在是否该赋予强人工智能制造的机器人“*”这一点上,不该存有疑虑。既然承认他是“人类的成员”,那么人类现有的价值判断原则就没有遭受冲击的可能,因为我们只需要用人的方式对待他即可。无故伤人也好,破坏公共秩序也罢,之前如何对待人类,现在也就照样对待。
当然,对于社会关系,例如家庭组织、亲属关系的冲击是显而易见的,但这并不影响整个世界最基本的制度规范。千百年来,婚恋的变迁、审美的流变,都差距奇大,但这些变化也都在历史长河中被“合理化”。也许就像50年前的人无法想象如今极为普遍的婚前性行为或同性恋合法化一样,今天的我们也无法去设想智能机器人加入我们之后产生的变化会如何消除争议。
所以,强人工智能的机器,并非新的物种,他就是归属于人类,他带来的伦理冲击并不能上升到宏观价值。况且,我们距离强人工智能时代还很遥远,关于伦理,弱人工智能反而更加值得讨论。
弱人工智能的伦理问题存在已久,讨论最典型的即无人轰炸机的伦理问题。一个自动轰炸的机器人,成为了战争的帮凶,万一失控,造成对平民的伤害如何界定。对此,我们需要明白,人类从制造劳动工具和武器开始,工具就已经变成了自己的延伸。工具本身的智能水平有限,并不能拥有完全的自主性,所以无人机无论造成什么后果,责任主体依旧没有变,就是控制机器人的人。由此可以推出,智能汽车失控,或者智能导航带你进湖,这些都属于拥有明确责任主体的机器。
其次,则是隐私问题。每一个智能机器人(设备)都是一个收集数据的终端,无数数据的汇集最终可能出现有价值的商业模式,前提之一必然是个人隐私的被贩卖。对于隐私的边界,人们并非不可接受,但是要认同让渡的隐私权和获得的便利比是有价值的。目前来看,大数据产生的隐私滥用问题已经非常严重,斯诺登的出现表明企业和*形成了“同谋”,铁幕遍地,并非危言耸听。
人类数千年的文明史,伦理体系混乱不堪,至今我们也没有一个统一的、标准的、明确的伦理体系,而仅有一些大部分人承认的大体的原则而已。对于人工智能带来的伦理冲击,更多的聚集在一些较为规则性的领域,从人类自身的发展历程来说,可以称其为无关宏旨。即使是政治监控的问题,这也并非人工智能独创的,秘密警察、告密制度早已有之。人类社会存在的阴暗面,不能简单嫁祸智能机器人,无论他是否真正具备人类的思维方式。
人工无智能:虚拟现实
本文的主题是讨论人工智能时代的伦理问题,从上文可以得知,强弱的人工智能时代,或许会存在一些具体领域法律规则或社会规范的调适,但不会引起大规模、根本性的伦理困境。似乎到了这里,关于伦理与人工智能的讨论就可以告一段落了。但正如许多人所秉持的“误区”一样,人们把人工智能等同于高科技发展,把技术与伦理的关系直接套用在人工智能与世界伦理的关系上。
这样的忧心多少有些歪打正着,我们早已迈入弱人工智能时代,强人工智能时代又并未出现明显迹象,但我们却忽略了虚拟现实(V irtual R eal-ity,简称V R )马上降临的基本事实。而这一同样充满着高科技色彩,并且被很多人误以为是人工智能领域的技术,将很可能带来一系列新型伦理陷阱。
在讨论虚拟现实技术可能带来的伦理冲击之前,先列出虚拟现实的学术定义:是一种可以创建和体验虚拟世界的计算机仿真系统,它利用计算机生成一种模拟环境,形成一种多源信息融合的交互式的三维动态视景和实体行为的系统仿真,使得用户沉浸到该环境中。补充一点,虚拟技术不是人工智能技术,因为没有赋予头盔、眼镜或者其他物件智能思维,看起来,它更像是一个工具———尽管我们在后面的分析中会发现这一判断同样充满争议。
2014年3月,Facebook宣布以20亿美元收购沉浸式虚拟现实技术公司Oculus V R。虚拟技术数十年的发展历史,亦是几经沉浮,但时至今日,虚拟技术引发的关注可能带来质的突破。在美国《时代周刊》2015年8月的封面文章中,我们看到虚拟现实已经是硅谷最热的事物,索尼、三星、H T C都卷入了这一轮由Facebook收购Oculus引发的热潮。
目前,虚拟现实技术需要解决的问题是可穿戴设备的便捷性以及价格上的居高不下两点。一旦商业价值被充分看好,将会迅速带来“人联网”和“物联网”的联结(中山大学哲学系教授翟振明语),届时产生的结果将是,当你进入一个虚拟的世界,你可以获得实体机械工具(人工无智能机器)的操控能力。在虚拟现实技术解决视觉感知外,还有听觉、触觉、力觉、运动等感知,甚至还包括嗅觉和味觉也被模拟,此外,头部转动,眼睛、手势、或其他人体行为动作所能达到的实时响应,使用者将可以完全获得虚拟=现实的感觉。
就此,著名电影《阿凡达》中杰克·萨利在潘多拉星球上的“替身”现象,就会真真切切地出现了。举一例,A在广州,但他可以通过虚拟现实的技术,操控他的“替身”去纽约开会。使用期间“替身”所有的动作、发言和行动,都由A在广州来操作,因特网就可以提供A与人替的实时链接。从技术上看,这一刻很快就将到来,由此也更加迫切地要求我们,提出伦理上的疑虑和担忧。
虚实难分的伦理困境
中山大学哲学系教授翟振明令人吃惊地创建了全球首个“人机互联实验室”,也令人吃惊地聚焦到了虚拟现实技术成熟和普及后的伦理问题。
翟振明的观点是:以往的技术基本都是客体技术,即通过制造工具、使用工具来改造自然客体的技术。并且,这种被制造和使用的工具本身也是客体。例如,一辆汽车、一把锤子虽然融入了人的技术,但它们毕竟还是与制造者分立的物体。与客体技术相比,虚拟现实技术则是一种主体技术。这类新兴技术不是用来制造客体化的工具的,也不是用来改造自然客体的,而是用来改变人本身的。成熟了的虚拟现实化的人联网,相当于我们重新创造的一个物理世界。如果此类主体技术成为我们的主导性技术,我们的生活方式将会从根基上发生巨变。
翟振明将《阿凡达》中的“替身”翻译成“人替”,他认为在使用虚拟现实系统之前,我们主要是用键盘、鼠标、手柄之类的东西来操作。有了虚拟现实头盔等可穿戴设备,虚拟现实不久就可以整到这里来了,你的人替也不再是第三人称视角的对象,而是变成第一人称视角。所以,远在纽约的人替虽然没有自我意识,而是作为A的自身存在,A的所有感知和行动都体现在人替上。
这带来了直接性的伦理挑战。按照翟振明的分析,在“人联网”与“物联网”无缝衔接之后,假如A的人替在纽约犯罪,将会造成纷繁复杂的困境:例如A在现实中是男性,但虚拟世界中选择女性,在虚拟世界中性骚扰一位女性,可能造成法律不适用;又如人替与人的关系,人替是身体的一部分,还是属于财产,处罚时如何处理人替和人;超越国界的使用,也会挑战政治的边界,犯罪的A到底是在美国还是中国,这些都值得讨论。
在虚拟和现实之间的边界变得模糊不清之后,所制造的伦理困境还有非常多,这里只是列举了其中一小部分。但最为终极的伦理问题不是别的,而是翟振明所忧虑的:在人联网和物联网无缝融合成一个巨型系统之前,我们最迫切的任务就是要想办法保住每个人类个体的自主性,杜绝有人试图把大家用作操作物联网的工具,也就是防止控制了物联网的某个寡头或一小撮寡头联合体把所有的其他人当作实现其权力意志的永久性工具。在这个地方,我们的决策差之毫厘,就有可能导致人类未来走向失之千里。
的确,假使短期内技术取得很大进展的虚拟现实技术获得普及,带来的绝不是文章开头担心的某一行业、某些工种受到冲击的问题,而是整个社会权力的重新配置,那些占得先机又肆无忌惮的寡头,将获得控制的途径,并发生新的专制暴政的问题。学者、媒体和公民,以及充满忧患意识的科技人员,有义务在虚拟现实时代降临之前,秉持人文理性,倡导建立起新世界的规范与伦理。
感谢翟振明教授对本文核心逻辑形成的贡献,也对参与讨论的茱茱、S ophia、B arnett一并表示谢谢。