Facebook:干预对话机器人不是因为失控而是无意义
上个月,Facebook传出了关闭智能对话机器人项目的消息。原因是,研究员对两个聊天机器人进行对话策略迭代升级,结果发现它们竟自行发展出了人类无法理解的独特语言。研究者不得不对其进行了人工干预。
消息传出后,一时间,Facebook关闭“失控”AI系统,因其发展处人类无法理解的语言的标题充斥各大媒体版面。要知道,Facebook创始人马克·扎克伯格近日刚在自己的主页上怼了硅谷“钢铁侠”,认为人工智能不会带来末日,人类也不必恐慌。现在这么快就被打脸了?
然而,实际情况并非如此。
一开始,Facebook人工智能研究院(FAIR)想要训练一个聊天机器人,让它学会谈判。于是他们神经网络结构开发了一个人工智能系统。这个结构叫做“生成式对抗网络”(Generative Adversarial Networks,简称GAN)。
要理解GAN,大家可以想象一下人类的对抗游戏:你的账户能在不断的对抗中提升技能,你玩的越多,水平就会越高。
Facebook的这项研究也是如此,研究人员希望训练这样一个聊天机器人,让它带着“目的”和人类对话。这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底对这些东西有多想要,然后去和人谈判。
在研究过程,Facebook的研究员却对两个机器人聊天能聊成什么样产生了兴趣。于是事情就开始变得有趣了。
系统中的两个聊天机器人Alice和Bob产生了让人看不懂的对话。这段对话第一眼看像是一堆无法解读的乱码,研究人员后来发现,原来是在为系统设置激励条件时,虽然告诉了它们“请用英文”,但忘了告诉它们:“请用英文语法”。
“我们的目标是让机器人和人聊天,提高和人聊天的技巧。”Facebook研究员迈克·刘易斯(Mike Lewis)指出,Alice和Bob的对话根本就是个试验而已,让两个聊天机器人聊天根本没有意义。
研究员还指出,Alice和Bob其实也没发明新的语言,因为他们还是在用“i”、“balls”、“the”等英文单词沟通,只是没有了英语语法的这个激励项,创造了一种新的表达方式而已。
所以最终,Facebook并没有“关掉”这个系统,而是重新设定了正确的激励,修正了机器人的行为,让机器人用标准的英文语法来进行交流。修正的原因也不是因为害怕系统失控。
下一篇: 学不会的银行家算法