美国科学家研发会拒绝人类命令的机器人
据美国财经资讯网站QUARTZ 11月25日报道,美国马萨诸塞州的研究者们试图做一件科幻电影里预言的场景,即指导机器人对某些指示做出相应拒绝。塔夫特实验小组也已提出相关策略,教会机器人识别特定情况,适时说 不 。
通常来讲,机器人是应该始终对人类的指示唯命是从的。当然,在汽车生产线上,对于一些对人类有潜在危险的工具,机器人是可以帮助进行游刃有余的进行操作。但是,每天我们也都在研究更新更加智能的机器人,让它们有能力来作出判断。这便带来了一个棘手的问题,怎样在程序中设置一项机器人的思维反应,可以让它们在不对自己和人类有害的前提下,作出正确的选择。
这也是美国塔夫斯大学人机交互实验室要研究解决的问题。他们也已经提出了相关策略来指导机器人智能应对人类指示。此种策略与人类大脑在接收到话语指示时的运行类似。在你要被指示做某事时,将会有一系列关于信任与道德的问题要思考。比如说, 我知道要怎么操作吗? , 这件事是否在我工作范围内? 以及确认 要做这件事的话,我是否违背了正常的规则? 并且最后的关键的一点是,一定不要伤害人类以及相关财产安全。
塔夫特实验小组将人类的一些内心独白简化为一系列逻辑论证,内置于机器人相关软件中加以识别。例如,在试验中,当命令机器人直直的朝一扇墙走去时,他果断拒绝,因为它自己识别到了该指示会带来危险。这项进展也着实令人欣慰。
最近谷歌的自动驾驶汽车显示,机器道德越来越成为一个严重的问题。这些自动驾驶汽车都安装有机器人设备,在开阔道路上,如果它们盲目的遵循设定指示时,遇到复杂棘手的路况时,便会给乘客带来危险。
如果你有幸与塔夫特实验组一起工作,你就可以见证机器人是如何思考,并且目睹在指示不合常理,有望伤人的情况下,它们是怎样义正言辞的说出 对不起,我不能这样做! 。 (实习编译:郭柯 审稿:陈薇)
上一篇: 确保云安全的十二大技巧
下一篇: OC学习篇之---循环引用问题