百依百顺的机器人以后它要说“不”了
不管别人让你做什么,你都会去做吗?所有人都会说:当然不!那未来的机器人应该总是听我们的吗?乍一看,你可能会觉得应该就因为它们是机器,听从我们的指令就是它们存在的意义。但再仔细想想,你在选择执行任务时,也并非不经大脑。所以,机器人也和你一样。
试想一下:
一位年迈又健忘的用户让他/她专门照顾老年人的机器人把刚刚洗好的衣服再丢到洗衣机里去
一个幼儿园的小朋友命令机器人把球扔到窗外
一名学生让机器人帮她完成所有的家庭作业
一个处于忙乱之中的主人,指示料理家务机器人运行垃圾处理器,即使勺子和小刀还卡在里面
像这样,对机器人进行不恰当指令,但并未造成实质性损害的例子还有许多。但并不是所有案例都是良性的,即使机器人的主人在下达命令是出于好意。
机器人/图 来源网络
想象一下,一个机器人汽车根据指令在车道上倒车,但它后面却有一只小狗在香喷喷地睡觉,或者主人让厨房助手机器人拿起刀子往前走,然而它却站在一个人类厨师身后......命令很简单,后果却惨不忍睹。
那么,怎么样才能使机器人既听人类的命令,又不会造成不利后果?如果不让机器人在狗狗周围行驶的话,它可能会一点也不动了;如果要它避免拿刀刺到厨师,它可能会站住不动,或一开始就不去拿刀了。
使自主运行的机器在行动时探测到潜在威胁,并试图去避免威胁,或拒绝执行指令,任何情况下都很必要。因此,我们到底该如何教机器人在恰当的情形下说“不”呢?
| 如何使机器人预知下一步
位于波士顿的塔夫茨大学正在研发一种控制技术:机器人可基于人类指令作出简单的推断。这将决定机器人是会按指令行事,还是会因为指令违反了预先设定的道德准则,而拒绝行动。
要让机器人知道什么时候、为什么、如何去拒绝执行指令,执行起来比口头说说要难得多。搞清楚一个行动会造成什么危害或问题,光看问题的直接结果是不够的一个从窗口扔出去的球,可能会掉进院子里,这不会造成任何伤害;但若掉到了繁忙的街道,这球可能就再也找不到了,甚至可能会导致司机为了躲避而突然一个急转弯,接着导致车祸。情景不同,结果不同。
以现有的机器人技术,在和孩子玩丢球游戏与把球扔出窗外或扔进垃圾桶之间,决定何时可以扔球,何时不可以还很困难。要是小孩子和机器人恶作剧,假装接球却躲过去,让球飞出开着的窗户的话,它就更不知道该怎么办了。
| 向机器人解释道德和法律
理解为何某些行为具有危险性,涉及到大量背景知识(包括在窗前玩球,球可能会飞出窗户)。这需要机器人不仅能自主考虑到行为后果,还能思考出人类发出指令的真正意图。
不管人类指令是出于好意还是恶意,机器人要能通过预知行为结果,弄清楚人类复杂指令的原因是什么,并能把行为结果与社会规定的、希望或合法的社会准则、道德准则相比较。如上所示,现有机器人遵循的一般规则是:“如果机器人的行为会造成有害后果,那么他们可拒绝行动。”明确义务和权限之间的关系,能让机器人通过可能结果,推理是否要执行指令。
总的来说,机器人不该执行违法或不被希望的行为。因此,他们需要了解法律、道德准则,甚至是礼节,以决定行为结果,或行为本身是否违反这些准则。
目前,想让机器人处理上述情境,还有很长的道路要走。但有一点早已证实:要让机器人去服从命令,它们得首先先学会拒绝。
上一篇: 有了物联网 原来羊还可以这么养
下一篇: 51、52单片机使用矩阵键盘