防止人脸识别被滥用!人工智能伦理道德规范征求意见:应向用户提供拒绝机制
因应用在进小区、动物园、商场等场景备受争议,最新征求意见的伦理道德规范指引似乎可以给出答案。
据全国标准化技术委员会官网11月9日消息,全国信息标准化技术委员会秘书处编制了《网络安全标准实践指南人工智能伦理道德规范指引(征求意见稿)》公开征求意见。
针对可能产生的人工智能伦理道德问题,该征求意见稿给出了安全风险警示、提出了开展人工智能研究开发、设计制造、部署应用等相关活动的规范指引。 依据规定,部署应用者应向用户提供能够拒绝或停止使用人工智能的机制,并尽可能提供非人工智能的替代选择方案。
对于人工智能相关活动的风险,征求意见稿分析,可能存在失控性、社会性、侵权性、歧视性、责任性五种风险。
具体而言,失控性风险指人工智能的行为与影响超出研究开发者、设计制造者、部署应用者所预设、理解、可控制的范围,对社会价值产生负面后果的风险;社会性风险,即人工智能的使用不合理,包括滥用、误用等,影响社会价值观、引发系统性社会问题的风险;侵权性风险,即人工智能对人的基本权利、人身、隐私、财产等造成侵害或产生负面后果的风险;歧视性风险,即人工智能对人类特定群体产生主观或客观偏见,造成权利侵害或负面后果的风险;责任性风险,即人工智能相关各方责任边界不清晰、不合理,导致各方行为失当,对社会信任、社会价值产生负面后果的风险。
征求意见稿介绍了人工智能伦理道德规范指引,开展相关活动时,除了遵守法律法规、致力于实现安全可控等的人工智能之外,还应尊重并保护个人基本权利、人身、隐私、财产等权利,特别关注对弱势群体的保护。这里的弱势群体指生存状况、就业情况、发声途径或争取合法权益保障能力等方面处于弱势的群体。同时,应认识到人工智能存在的伦理道德安全风险,进行必要风险分析,在合理范围内开展人工智能相关活动。
对于研究开发者而言,征求意见稿提到,应避免出现损害人的基本权利、人身、隐私、财产等权利的应用场景,降低人工智能被恶意利用的可能性。谨慎开展具备自我复制或自我改进能力的自主性人工智能的研究开发,评估可能出现的失控性风险。此外,应不断提升人工智能的可解释性、可控性,应对研究开发关键决策进行记录并建立回溯机制,对人工智能伦理道德安全风险相关事项,进行必要的沟通、回应等。
对于设计制造者,征求意见稿表示,不应设计制造损害公共利益或个*利的人工智能系统、产品或服务;应及时、准确、完整、清晰、无歧义地向部署应用者说明人工智能系统、产品或服务的功能、局限、安全风险和可能的影响;应在系统、产品或服务中设置事故应急处置机制,设置事故信息回溯机制,例如通过黑匣子实现的事故信息回溯。同时,应对人工智能伦理道德安全风险建立必要的保障机制,对引起的损失提供救济,例如通过购买等手段为必要救济提供保障。
对于部署应用者,征求意见稿要求,在公共服务、、卫生、福利等领域,进行重要决策时如使用不可解释的人工智能,应仅作为辅助决策手段,不作为直接决策依据。此处的不可解释,是指难以对特定决策或行为的产生过程或原因提供说明、证据或论证。
同时,部署应用者应向用户及时、准确、完整、清晰、无歧义地说明人工智能相关系统、产品或服务的功能、局限、风险以及影响,解释相关应用过程以及应用结果;应以清楚明确并便于操作的方式向用户提供能够拒绝或停止使用人工智能相关系统、产品或服务的机制;在用户拒绝或停止使用后,应尽可能为用户提供非人工智能的替代选择方案等。
对于用户,征求意见稿建议,应以良好目的使用人工智能、充分体现人工智能的正面价值,不应以有损社会价值、个*利的目的恶意使用人工智能,同时应主动了解并反馈人工智能伦理道德安全风险。
更多内容请下载21财经app