智力还是情感?人类到底想要人工智能怎么样?
阿兰·图灵是英国著名数学家、逻辑学家,被称为计算机之父、人工智能之父;他曾经构思了著名的人工智能测试方法——图灵测试。阿达洛夫莱斯是诗人拜伦的女儿,也是一个世界级的数学家和科学思想家。她热衷于创造一台能模拟大脑如何产生想法和感受的机器,这要早于人工智能。她认为自己的做法是“诗意的科学”,美国国防部曾将一种计算机语言命名为Ada语言,来纪念她。
不过现在,请先忘记图灵和阿达洛夫莱斯曾经进行过的人工智能测试吧,因为笔者要提出一个全新的人工智能测试——弗兰普顿测试(Frampton Test)。或许你会感到好奇,什么是“弗兰普顿测试”呢?
回望过去的几个世纪,我们可以发现似乎人类一直在试图证明自己不是“动物”,而现在,人类可能要再证明下自己和“机器”其实并不一样。
阿兰·图灵曾经发明了一种所谓的“模拟游戏”,(其实就是著名的图灵测试),用来测试机器是否能和人类一样思考。比如当人类和机器进行交流时,如果一个人无法区别和自己进行交流的是人还是机器,那么这台机器就算是通过了图灵测试。最初,图灵提出判断人工智能的概念是“机器是否能够像人类一样思考”。但是后来人类自己也意识到,对于“思考”这个概念,就连人类自己都无法给出一个明确的定义。
欺骗图灵测试
人类有很多不同的人格品质,比如有些人就比较刁滑。事实上,图灵测试一直鼓励计算机程序员设计一些“刁滑”的机器来迷惑人类判断,这在本质上能掩盖真实的对话,让机器“通过”图灵测试。
这种“欺骗”在去年七月七日真的就实现了,在英国皇家学会的图灵测试大赛中,一个名为 Eugene Goostman的家伙让三分之一的评委觉得“他”是一个13岁的乌克兰男生。
事实上,Eugene不是“人”,而是一个人工智能聊天程序,一款专门设计与人类进行聊天的计算机程序或聊天机器人。当然啦,受到某些超现实主义的影响,这款机器人还能和其他聊天机器人进行对话交流。见以下视频:
不过,有批评家很快就指出,类似这种“人工智能欺骗”其实也是人为设定的,因此根本算不上真正的人工智能。因为将人类智能设置为一个13岁的乌克兰男生,而测试是使用的英语,那么测试的时候就算出现一些低级错误,人们也会谅解:还能怎么样,他只是一个13岁的外国小男孩?这带来了极大的迷惑性。
创造性思维
如今,类似Eugene这样的聊天机器人基本上已经算是非常成功了,但对于研究人员来说,他们希望迎接更具挑战性的使命:让机器具有创造力!
四年前,Selmet Bringsjord、Paul Bello以及David Ferrucci三位研究人员拟建了“洛夫莱斯测试”,它是以十九世纪著名的数学家、程序员阿达洛夫莱斯伯爵夫人的名字命名的。你可以要求计算机去创造一些东西,比如编一个故事或写一首诗。
实际上,计算机写诗、编故事,这些功能早就已经实现了。事实上,《三体》的作者刘慈欣就曾经开发了一个简单的写诗小程序“电子诗人”。但是要通过所谓的“洛夫莱斯测试”,所有设计相关程序的人必须能够解释它是如何生成这些创意作品的。
Mark Riedl来自佐治亚理工大学交互计算学院,他提出对“洛夫莱斯测试”进行升级,也就是“洛夫莱斯测试2.0版本”,一台计算机必须要完成一系列越来越苛刻的创意挑战,之后会获得一个分数,并以此评估创造性。
他是这样描述创造性的:
在我的测试中,我们有人类评委坐在计算机对面。他们知道自己在与人工智能进行交互。他们会让这个人工智能分两个层级去完成一项任务。第一个层级,他们会要求人工智能创作一个有创意的作品,比如编一个故事、写一首诗或画一幅图。接着,他们会提供一个标准,比如,“给我讲一个关于‘猫的一天’的故事”,或是“给我画一个抱着一只企鹅的人物画像”等等。
创造力的伟大之处又是什么呢?
洛夫莱斯测试2.0版本可能具有一定挑战性,但同时,又有人提出异议,因为他们认为不应该把创造力看做是人类最重要的品质。
事实上,在本月初举办的Robotronica 2015机器人创力大会上,Jared Donovan和机器人学家Michael Milford,以及舞蹈家Kim Vincs教授对人工智能创造力进行了一次专题讨论。最近,很多业界人士(包括史蒂芬·霍金、比尔·盖茨、以及埃隆·马斯克)都认为人工智能有一天会导致人类灭亡,而在本届机器人创力大会上的这次专题讨论更多地是去关注创造力和机器人的现状,以及人类更希望智能机器去表达什么样的情绪或情感。
在人类的精神层面上,共鸣可以算得上是最高层次的一种情绪表达了,人类具有理解彼此,分享彼此感受的能力{而且在绝大多数情况下,彼此之间根本不需要做太多识别判断,仅仅是一个眼神、一个动作,就能做到心有灵犀。
因此,笔者提出了“弗兰普顿测试”这一概念,之所以要用著名摇滚传奇Peter Frampton的名字来命名,其实是因为他在1973年的一首歌曲中提出了一个重要的问题……“你能像我们一样感觉彼此吗?”
我们知道,人类会在某些特定状态里产生共鸣,同感彼此的感觉。弗兰普顿测试也希望能够达到这一目标,它要求人工智能系统必须在类似的某些特定状态里,给出一个令人信服、且适当的情绪或情感回应。
2015 DARPA机器人挑战赛决赛
我重复那种情感
值得一提的是,人们已经开始在相关领域里进行探索了,这种所谓“情感计算”的人工智能,希望能够给机器灌输模拟人类共鸣的能力,如果真的能够实现的话,这种具备人类情感的人工智能机器所产生的影响,或许会引发人们更多有趣的思考。
今年七月,人工智能和机器人研究人员发布了一封公开信,其中明确指出,如果机器人可以自动控制武器,未来将会是非常危险的。不过,如果机器人能具有人类的同情心,我们还会担心开发这种杀伤性机器人吗?
如果机器人具备了人类情感,比如同情心,它可能不会去杀人。但同样地,让机器人具备人类情感就真的是件好事儿吗?我们知道,人类情感并不都是积极正面的,比如憎恨、愤怒、忿怨等等。或许我们真的应该感到庆幸,自己生活在一个没有情感机器人的世界里面。(如果你调戏Siri之后,得到的是恶语相向的回答,真不知道会是个什么样的场景。)
当然,如果你看看生活中的大环境就会发现,其实积极正面的情感情绪依然在人类生活中占据了主导地位。
事实上,所有和人工智能相关的问题都值得认真思考,机器人是否会在未来某一天具有创造力,我们人类是否希望机器人具有创造力呢?诸如此类。
至于机器情感,我认为弗兰普顿测试可能会应用很长一段时间。当然啦,现阶段那些机器人身上所表现出的强烈的情绪、情感,其实都是继承自它们的创造者而已。
上一篇: 人工智能的未来:Facebook M 会战胜 Siri 吗?
下一篇: 让号码主人开心老一阵子