欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  科技

人工智能法官已经上线 但谁能保证它的公平公正?

程序员文章站 2022-05-07 23:39:09
人工智能已经开始在你决定未来的过程中发挥作用了无论你的Netflix浏览偏好是什么,你是否适合抵押贷款,还是你是否与你期望的boss相容。但是,至少就目前而言,我们为什么不能承认让人工智能在法庭上判定...

人工智能法官已经上线 但谁能保证它的公平公正?

人工智能已经开始在你决定未来的过程中发挥作用了无论你的Netflix浏览偏好是什么,你是否适合抵押贷款,还是你是否与你期望的boss相容。但是,至少就目前而言,我们为什么不能承认让人工智能在法庭上判定罪犯有罪或无罪是一个过分的举动?

令人担忧的是,这似乎已经发生了。最近美国首席大法官John Roberts最近出席一场活动时,有人问他是否曾预见到有朝一日“智能机器在人工智能的驱动下协助法庭裁决,甚至是更有争议的司法裁决”。他回应道:“这一天已经近在眼前,这也给司法部门的工作带来了巨大压力。”

Roberts可能指的是最近的Eric Loomis案件,至少有部分的判决建议是来源于一家私人公司的秘密专利软件,而Loomis最终被判了6年监禁。Loomis有犯罪史,他此次是因为在一辆偷来的汽车中袭警并逃离而被判处死刑,现在他声称,他的正当程序被侵犯了,因为他和他的律师都不能仔细审查或质疑生成这一建议的算法是否合理。

这份建议报告是由一款名为Compas的软件产品生产的,该产品由Nortpointe公司销售并出售给法庭。

该计划是人工智能研究领域的一种新趋势的代表:旨在帮助法官在法庭上做出“更好”的决策或者至少是以数据为中心的决策的新趋势。

尽管Loomis的报告的具体细节仍被密封,但这份文件可能会包含许多图表和图表,以量化Loomis的生活、行为和再犯的可能性。这可能还包括他的年龄、种族、性别认同、浏览习惯,以及……我也不太明白……他的头骨尺寸。关键是我们什么都不了解。

我们所知道的是,案件的检察官告诉法官,Loomis展示了“高风险的暴力,高风险的再犯真的是太高的风险了。”

在量刑方面,这些都是标准。法官同意了这份报告的结果并告知Loomis说他已经“通过公司的评估,确认是一个对社会来说高风险的人”。

威斯康星州最高法院裁定Loomis有罪,并补充说,该公司的报告给他们的决定带来了有价值的建议,但他也说,就算没有这个软件的帮助,Loomis也会得到同样的判决结果。

但我们怎么能知道这一点呢?当像Compas这样的全智能系统给法官提供建议时,会出现什么样的认知偏差?

现在我们要明确一点,那就是威斯康星州法院没有“非法”的行为这仅仅是一个不太好的主意而已。其他法院也可以*地做同样的事情。

令人担忧的是,我们实际上并不知道人工智能和其他算法在量刑方面的使用程度。

我自己的研究表明,有几个司法管辖区都在类似于学校那样“试用”系统进行封闭实验,但没人能公布他们合作伙伴的详细情况,也不能公布它们会在何时何地使用。

我们也知道,有许多人工智能创业公司正在争相打造类似的系统。

然而,在法律中使用人工智能并不是从量刑开始,而是从调查开始。一种名为VALCRI的系统已经被开发出来,它仅在几秒钟内就能完成犯罪分析人员的劳动密集型工作:费力地浏览大量的数据,如文本、实验室报告和警方文件,记录并突出可能需要进一步调查的内容。

英国的西米德兰警方将在未来三年内使用匿名数据进行测试总计达650万次。比利时的警方正在进行类似的审判。然而,过去的人工智能和深度学习项目涉及大量数据,一直存在问题。

科技给法庭带来了许多好处,从影印机到DNA指纹和复杂的监视技术。但这并不意味着任何技术都是进步。

虽然在调查和量刑方面使用人工智能可能有助于节省时间和金钱,但它也引发了一些棘手的问题。ProPublica公司的一份报告明确指出,佛罗里达州布劳德县的黑人被告“更有可能比白人被告误判为再犯率偏高”。最近,Bath大学电脑科技专业的教授Joanna Bryson的工作表明,即使是算法最复杂的AI(人工智能系统)也会继承创造它们的人的那些关于种族和性别的偏见。

更重要的是,把人类特有的决策过程(至少在一定程度上)转移给算法,有什么意义?为什么我们要选择由我们的同行组成的陪审团呢?

法律的标准从来都不是完美的,而是我们作为人类的能力所允许的最好的。我们会犯错误,但随着时间的推移,我们会积累知识,知道如何不再犯错误不断完善体系。

Comas,以及它这一类的系统代表了法律体系的“黑箱”。这必须强行加以抵制。

法律体系依赖于信息的连续性、透明度和审查能力。作为一个社会,我们不希望看到的是一种鼓励人工智能初创企业以尽可能快、更低成本和最单一方式提供建议的司法体系。

虽然一些人工智能观察人士多年来一直在严密警惕这种情况,但现在它还是出现了这个情况糟透了。

或许一个开放的、可被审查的版本,将会是一个不错的进步。然而,我们必须首先确保我们提高了司法系统的标准,然后才能将任务推给算法。人工智能不应该只是一个不付出的借口。

人工智能领域被很多人投了大量资本,也有很多真正的机会。如果我们利用得好,它就能改变很多事情,并确保它的好处能让所有人受益,这好处不只是能巩固金字塔顶端的权力。

我现在还没有完美的解决办法。但我知道,当涉及到人工智能在法律中的作用时,我们必须问,它们使用的背景,目的,以及是否有靠谱的监督。在这些问题能够得到肯定的回答之前,要保持高度怀疑,或者至少有一些非常杰出的律师辅助。

本文作者Christopher Markou是剑桥大学法学院的博士研究生,这篇文章由World Economic Forum重载。

(英文来源:MENU 编译:机器小易 审校:周文生)