应用机器人的伦理法律问题,欧盟如何规制?
2016年1月12日,欧洲议会法律事务委员会就来自欧洲社会党/社会*党党团的M ady D elvaux*所提出的《关于建请欧盟委员会修改有关机器人的民法规则的报告草案》进行了表决。在欧洲议会法律事务委员会总计21席委员中有17席赞成该草案,2席来自代表极右疑欧主义、由法国国民阵线党主席勒庞所领导的“民族和*欧洲”党团的*投票反对决议草案,另有2席*选择弃权。如此一来,由D elvaux*所提出的决议草案已经完成了欧洲议会一读程序(2015年5月21日)和法律事务委员会的审查程序,预计在2017年2月该决议草案将交付欧洲议会全体大会进行表决。考虑到立法机关工作的一般规律,顺利送出专门委员会的决议草案一般都可以在全体大会闯关成功,这也意味着欧盟机构将有可能会将应用机器人所产生的伦理和法律问题的应对措施提上议事日程和立法议程。根据《里斯本条约》对欧盟机构权力之划分,欧盟立法的提案权由欧盟委员会单独享有,欧洲议会和其他欧盟机构都无权启动立法程序;但是,欧洲议会可以通过决议要求欧盟委员会提出立法动议以启动立法程序。此次提出的决议草案即属于这类“施压性”决议案———即使欧洲议会最终将其通过也不具有立法的法律效力,因为欧盟委员会有权拒绝对此进行立法(但要向欧洲议会陈述其拒绝的理由)。
该决议草案要求欧盟委员会在欧盟各成员国国内法缺乏相关规定的情况下对有关应用机器人所产生的伦理和法律问题进行统一立法,一方面“确保在安全的前提下充分利用智能机器人的资源”,另一方面希望“欧盟在该法律领域发挥领头羊作用而避免日后被强迫遵循第三国的相关法律规则”。该草案主要包含两项核心议题:1 .设计、生产和适用智能机器人的伦理标准问题;2 .使用机器人所产生的法律责任的承担问题。另外,该草案还主张成立一个专门负责该事务的欧盟官署,一方面为欧盟和成员国公共部门提供技术、伦理等专业支持,一方面也确立监管标准和措施来应对消费者保护和系统性挑战的问题。就两项核心议题的部分,在伦理原则上草案一方面指出要注意应对使用机器人而给人类带来的安全、隐私、尊严、自主和数据所有权等潜在伦理风险,一方面强调要设立指导性伦理框架来辅助法律规则来规范智能机器人的设计、生产和使用,尤其给设计智能机器人的工程师确立行为准则并且加强对负责颁发使用执照给设计者和使用者的相关委员会的伦理要求。在事故责任的议题上,草案要求欧盟委员会未来的立法不得对受害者有权进行索赔的损害种类进行限制,同时在责任认定上应当使用严格责任标准———意即受害者只需要证明自己受到了损害并且其受到的损害与机器人的行为之间存在因果联系即可。此外,草案还要求未来的立法应当针对机器人致害的问题建立类似于车辆强制险的强制保险种类并设立另外的赔偿基金来确保受害者那些未被前述强制保险所覆盖的损害也能得到救济。
另外,草案中最吸引眼球的内容,一是为机器人(尤其是高度复杂的自主机器人)设立某种特别的法律地位(电子人)从而帮助厘清法律上的事故责任承担问题;二是在草案中建议的《科研伦理委员会法典》中的“机器人自杀条款”,即相关委员会在为智能机器人的设计者颁发执照时“应当加入与合理设计的目标相符合的、明显的退出机制”,使用者在必要时将可以选择关闭机器人功能,防止电影《终结者》的剧情成为现实。然而,草案的批评者指出,为机器人设立“法律上的人”(即“电子人”)的身份不仅将对现有法律框架产生冲击,而且相关法律框架也可能会对机器人产业发展构成不合理限制而使得欧盟落后于其他国家,相关产业界预计也会对欧盟委员会展开游说活动,反对欧盟制定相关法律。围绕对机器人进行伦理和法律规制的讨论及政治博弈预计仍将持续下去。
(作者系德国汉堡大学法学院欧盟公法博士候选人)