欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

英国正式颁布机器人道德标准 科幻与现实交织

程序员文章站 2022-03-23 17:15:39
艾萨克阿西莫夫(Isaac Asimov)曾在他的科幻小说里描述了规范机器人行为的三定律,包括:不能伤害人类、服从人类命令和保护自己。现在,英国标准协会正式发布了一套机器人伦理指南,比阿西莫夫三定律更...

艾萨克阿西莫夫(Isaac Asimov)曾在他的科幻小说里描述了规范机器人行为的三定律,包括:不能伤害人类、服从人类命令和保护自己。

现在,英国标准协会正式发布了一套机器人伦理指南,比阿西莫夫三定律更加复杂和成熟。我们的社会已经到了要给机器人制定行为规范的时候了,这不禁让人产生一种科幻与现实交织的奇妙感觉。

英国标准协会(British Standards Institute,简称BSI),是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。这个伦理指南的全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。

这个标准的文件代号为 BS8611,发布于9月15日英国牛津郡的 “社会机器人和AI ”(Social Robotics and AI)大会上。西英格兰大学机器人教授Alan Winfield表示,这是业界第一个关于机器人伦理设计的公开标准。

文件内容虽然用词枯燥,但是里面所描绘的场景,简直跟从科幻小说里蹦出来的一样。机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。

《指南》开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。

《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。

英国正式颁布机器人道德标准  科幻与现实交织

谢菲尔德大学教授Noel Sharkey认为,这就是机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但是人类有时候并不这么认为。他指出,最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。

《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解AI系统(尤其是深度学习系统)是如何做出决定的。

一个人工智能体,并没有用固定的程序来指导它完成任务,它是通过数百万次的学习和尝试,才找出成功的解决方法。这种学习和做出决策的过程,有时候是其人类设计者都无法理解的。

《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。

机器人的偏见是会直接影响技术应用的。它会对某些群体的学习更深入,而对另一些群体有所忽视,这在以后的应用中,意味着机器人会“看菜下饭,看人说话”。

现在已有的例子就是,声音识别系统对于女性的理解要弱一些,再比如机器识别白种人的脸更容易,识别黑人的脸更难。 长远来看,在未来的医疗应用中,机器人在诊断女性和少数族群的时候,其专业程度会降低。

Sharkey 教授说:“我们也需要一个机器人黑盒子,可以打开来仔细审查。如果一个机器人表现出种族主义的倾向,我们可以把它关掉,从街上拽回来。”

两周前,路透社有文章指出,有科学家表示性爱机器人会使人成瘾,因为机器人不会拒绝。

《指南》也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。这也是在未来的工作中需要继续补充的。