人工智能的危与机:过犹不及
史蒂芬·霍金最近发出警告:“一旦人工智能发展到完整的程度,人类的终结也就到了。”伊隆·马斯克则担心人工智能的研发有可能是人类存亡的最大威胁。连比尔·盖茨也敦促大家要小心。
人一手创造的怪物,会不会反过来奴役人?这种畏惧很早就有了。但就在微软、谷歌竞相投入巨资研发人工智能之时,名气响当当的宇宙学家、硅谷创业家和微软创始人却分别说出这样的忧虑,这份忧虑就有不同的份量--要注意,他们三位可不是反对或排斥工业化、新技术的人。今天,一个人的口袋里装着的可能就是一部超级计算机,战场上杀出来的可能是机器人,如果把那份忧虑简单地当是异想天开,也是有些自欺欺人。问题在于,如何避免过犹不及?
首先,我们要搞清楚,计算机现在已经具备了哪些能力,而在将来又会增加哪些能力。凭借处理能力的增强以及数据资料的增多,人工智能正处于快速发展的阶段。今天,深度学习 (deep learning) 系统能模仿人脑的神经元层,处理海量的数据,自己教自己如何去执行一些任务,譬如识别和翻译,做得几乎跟人一样好。结果,一些一直需要人脑参与的事情,大到解读图象,小到玩街机经典《青蛙过河》,现在也属于电脑程序能做的范围里了。Facebook 在 2014 年发布了名为 DeepFace 的算法。这个算法可以识别相片里的人脸,准确率达到 97%。
但必须注意的是,这些都是应用于某一具体领域狭隘的能力。目前的人工智能是通过“残暴”的数据处理能力,来达到与人脑智力的“形似”,但至于如何模仿人的自主性、喜恶和欲求,成果则很少。电脑还做不到随心所欲地思辨、判断、选择,而这些都是人类智力的特征。
但与此同时,人工智能已经可以给人类生活带来巨大的改变。人工智能现在已经能辅助人类,为人做的事带来助益。国际象棋便是一例。现在电脑可以下赢任何一个人。不过,当今世界上最强的棋手并不是电脑,而是人与算法一起合力的团队。这样的团队组合将延伸至人类其它的活动:医生有了人工智能的支持,从医疗图象中查出癌症的能力将大大增强;有了智能手机上装的语音识别软件,发展中国家读写能力欠佳的人便能更好地使用互联网;做学术研究时,数字助理可以建议你哪条假设更有机会成立;有了图象分类算法,可佩戴设备(如谷歌眼镜)可以对着肉眼看到的真实世界“加上”有用的标注。
但也不是每个方面的效益都是正面的。譬如,无论是对*国家还是专制国家而言,人工智能都是监管人民的利器。有了人工智能,*便可以监听数以亿计的对话,在人山人海中根据声音或样貌特征轻而易举地找出它要找的人。这就对*造成了严峻的威胁。
尽管整个社会可以获得很多益处,但很多人会因为人工智能而处于劣势。在计算机诞生以前,给老板计算数字的苦活常是由妇女来做,后来这些职位就让晶体管占据了。同样,人工智能将来很有可能会让整个白领阶层捡包袱走人。虽说教育和培训有助打工者适应这个变化,且人工智能带来的新财富会进入新的行业从而产生新的工种,但打工者依然难免经历颠簸。
但霍金、马斯克、盖茨他们担心的并不是监控和颠簸的问题。他们担心的是近期好莱坞电影里的场景:自动化机器拥有了比人类更灵敏的认知能力,拥有了与肉身的人冲突的利益观。
这样的人工智能产品离我们还遥远得很,甚至可能永远也造不出来。无论是心理学家、神经学家、社会学家还是哲学家,在对着人脑东敲敲西敲敲地研究了一个世纪后,依然没搞清楚人的思维是怎么回事,更不要说仿造出一颗人脑。假如机器拥有自己的利益观和自主能力,即使这机器的智能不完整,只能用于某个用途,也绝非代表我们就可以放心使用:无人车跑起来比人开还好,这听起来挺赞的,但要是车有自己想去的地方,听起来可就不太妙。
虽然我们离霍金所说的“完整的”人工智能还很远,但现在就开始思考如何应对到时的情况,也是谨慎之举。“超人”又“自治”的东西,人类不早就创造过了吗?官僚*、市尝军队,这些都是,这些都帮助人类做到没有辅助、组织时做不到的事情;这些都能自主运作,而且如果不加法规管理,都会造成巨大的*。
这些相似的事物或许可以令人工智能的持疑派放心一些。这些事物也喻示了人类社会如何可以安全地研发人工智能。军队需要文官管理,市场需要监管,官僚需要问责、透明;同理,人工智能系统也必须接受监督。由于系统的设计者无法预见所有的情形,还必须要有危急时刻拉闸中断的设置。加入这些限制并不会妨碍进步。大到核弹,小到交通规则,这些都证明人类曾成功运用技术和法律手段去管理威力强大的创新。
过度畏惧“自动化非人智能”的诞生,会令相关的讨论走偏。诚然,人工智能会带来危机,但注意到危机的同时,我们也要看到其庞大的效益。
上一篇: 项羽为什么败给刘邦?有三个致命原因
下一篇: 如何创造一个不会灭绝人类的超级人工智能