欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

想让机器人变聪明 必须先学会说“不”?

程序员文章站 2023-11-17 15:39:16
本文来源:极客视界我们都知道机器人学有三定律:机器人不得伤害人类,或坐视人类受到伤害;除非违背第一法则,机器人必须服从人类的命令;在不违背第一及第二法则下,机器人必须保护自己。但是,如果机器人总是对人...

想让机器人变聪明 必须先学会说“不”?

本文来源:极客视界

我们都知道机器人学有三定律:机器人不得伤害人类,或坐视人类受到伤害;除非违背第一法则,机器人必须服从人类的命令;在不违背第一及第二法则下,机器人必须保护自己。

但是,如果机器人总是对人类言听计从,那会惹出不少麻烦。

去年,塔夫斯大学人机交互实验室的两个学霸 Matthias Scheutz 和 Gordon Briggs 展示了他们的研究成果:当机器人靠近桌子边缘时,机器人停下来,拒绝“向前走”的指令。

想让机器人变聪明 必须先学会说“不”?

Matthias Scheutz 和 Gordon Briggs 的研究成果似乎违背了第二法则,让很多人开始恐慌:机器人学会了拒绝人类发出的命令了。

对此,Matthias Scheutz 很无奈的表示,总会有人对他们的研究断章取义,误以为研究的关键是机器人不再服从人类的命令了。其实,他们研究的关键不是在伦理上拒绝人类的命令,而是让机器人学会在必要时刻拒绝人类发出的命令。

这些年,随着机器人和人工智能的发展,我们希望机器人能够变得更聪明、更智能,能够帮我们解决生活上的问题,但同时,我们也担心机器人在变得更强大之后,会在某一天成为“终结者”。

并不是所有的研究者都认同“机器人威胁论”的。对于机器人的发展,Matthias Scheutz 认为,如果想让他们变得更聪明,就必须先让他们学会说“不”。

说会说“不”是AI更智能的第一步

教会机器人拒绝对它不利的命令,这对机器人和它的主人都有好处。更进一步的说,教会机器人说“不”意味着教会他们判断自己的行为。

Matthias Scheutz 表示,他们不希望机器人在没有确认命令的有效性之前就盲目的执行命令。有时候,人类下达的命令会存在不合理性,这些命令可能会对人类、周围环境,甚至机器人本身产生不利。

举个例子吧,如果一个小男孩吃饱撑着想做恶作剧,让家庭机器人把热咖啡倒在比他年龄小的妹妹头上。假如家庭机器人真的服从了小男孩的指令,最终就会发生悲剧。确保这些恶作剧不发生的关键是,机器人的数据库有足够的关于社会和伦理规范的知识,才有能力在恶作剧面前说“不”。

本质上来说,当机器人接收到命令之后,它要先判断执行命令之后会不会有危险。如果有危险,机器人要提醒人类,如果最后人类还是没意识到有危险的话,那么机器人完全可以拒绝命令。

机器人不该去做那些明知很危险的事情,或者更准确地说,如果机器人不了解事情的危险性,它就会按照命令去执行。这一点很重要,因为如此一来人类就不会胡乱下命令了,他们在做决定前会充分考虑到一系列的合适条件。

“机器人常识”

我们都知道靠近悬崖时要停下来,知道不能忘婴儿身上倒热水。我们的生活经验告诉我们什么是危险,面对危险时该怎么做。人类有一套社会法则和道德标准,这些对于我们来说都是常识。但是机器人并没有常识这种东西。

机器人在野外工作的时候需要有大量的社会规则和安全法规知识。它们必须要牢记这些知识,才能成功的执行任务。

终有一天,机器人得融入人类生活中,协助他们。如果AI和机器人想要变聪明的话,那么“机器人常识”会成为其中很重要的一部分。

想让机器人变聪明 必须先学会说“不”?

(尽管机器人一开始拒绝了命令,但最后研究者表示会接住它之后,它还是向前走了。)

复杂的附加层

我们不仅要让机器人判断什么时候该执行命令,还要让它们具有一定的道德标准,需要通过非常复杂的附加层才能实现。

问题是,我们目前没有这样的技术能让机器人学习道德标准,而且学习道德标准是需要花上一段时间。在把他们带到现实世界之前,它们必须要具备这样的道德标准。这项工作的规模远远超乎我们的想象。

幸运的是,卡耐基梅隆大学计算机科学院已经开始投入了师资力量来进行该技术研发,至少需要到2040年,才有可能实现消费化应用。

当机器人达到一定的学习能力后,才有能力分辨出人类情感中的一些道德伦理及常识,并将之加入到行为规则中。