人工智能对规则、标准和司法自由裁量权的影响外文翻译资料

 2023-03-13 03:03

人工智能对规则、标准和司法自由裁量权的影响

原文作者 Frank Fagan amp; Saul Levmore

单位 University of Chicago Law School

摘要:本文主要讲述人工智能,特别是机器学习,这保证了立法者地位的特殊性和更低的犯错可能性。人工智能的发展被认为将导致一场从标准向规则的转变。利用当代数据科技,当未来发生的情况不同于过去时,也即当新变量出现时,机器学习就会显得令人印象深刻,在没有及时更新的算法的情况下,机器学习就失去了其优势,因此,更宽松的裁量标准可能会优于精确的规则。实践中法院将这一见解应用于司法裁判领域,以及我们熟悉的法律规范等规则。我们需要证明人类-人工智能的组合可以优于单独使用人工智能。否则在对人工智能如何应用这个问题时,未来的立法者们一旦在法律领域面临了挑战,就像当今的法官否决错误和过时的陈旧案例一样,直接否决人工智能决策的有效性。

关键词:人工智能;自由裁量权;人机关系

介绍

上世纪80年代后,办公室职员和家庭主妇通过学习使用机器而使得工作生活变得更加高效。在当今这个大数据时代,对人机合作关系的调整更具挑战性。今时今日的机器,不同于早期的打字机和洗衣机等简易的机器,它们可以通过设定好的算法自己作出决策和改进。人类需要思考在何时应当采取机器的建议,何时应当否定机器做出的决策。就法律层面而言,是否信任人工智能就像自动驾驶汽车和人工驾驶之间的关系一样,最困难之处便在于人工智能的进步是肉眼难以看见的,而人工智能的错误更是难以识别的,由于算法不能直接显示他们是如何作出决策的,所以错误的假设和变量很难被识别。本文探讨了人工智能和人类立法者之间的劳动分工。首先,我们提出,在稳定的法律环境下,人类对机器应当更包容,而不是对机器出现不同于人类的意见时,直接对其否定或是不予采纳。简单来说,人类对人工智能的明确否定,将导致法官的自由裁量标准和人工智能对法律规范的运用出现差异的情况。此外,我们还解释了为什么人工智能单独工作会存在缺陷,列举了涉及审前保释、假释和裁判结果,以及借鉴了包含侵权行为、合同、破产法的相关例子。我们将展示人工智能是怎样将案例中法官的自由裁量转变为它所理解的规则,并变为熟悉的规律规范的特异性。在特殊的情况下,理解人工智能学习的极限将会产生相反的效果,因为它将优先提供法官判案中产生的工作经验和判断来代替熟悉和精确的法律规则。

I.人类和机器的组合能力

人和他们的机器之间的组合或团队合作并不新鲜。四十年前,显然即使是最有能力的秘书也需要有良好的打字能力。秘书的能力评判是筛选秘书的接待办公室访客、听写、记录等能力,但如果秘书能够准确并快速地打字,这些能力就会更加突出并得到重视。它的优点不仅是将人和机器组成人机团队,而且可以结合人和机器的长处,人的经验和机器的加速处理功能,双方是互补的,而不是替代品。随着机器的改进升级,人类在人机关系中的相对贡献并不一定是减少了,知道电脑的出现让人们对秘书的以来变得越来越少,付出的体力劳动确实是相对减少了。

我们有理由认为在现代对人类和计算机之间的关系也是类似的,虽然这种组合看上去更高级,因为在人工智能的帮助下,一些任务和决策可以由机器单独进行,甚至IBM电动打字机不需要一个人类做任何事情。机器学习只是是人工智能的一个子集,是一个术语,是指现代机器在对人类寻求的目标和提供给机器的数据来源进行编程后自行改进的能力。IBM打字机是机械的;现代文字处理程序是人工智能应用的一个简单例子,它使用结构化数据纠正错误拼写的单词。同时,如果文字处理器能够根据用户之前向对方发送的电子邮件习惯来提供建议,那么它实际上就是机器学习。数据越多,依照以往的经验,文字处理器可以为用户提供合适的建议,通过收件人的回应,这些建议可能会变得越来越贴近用户的使用习惯。

机器学习使机器成功在国际象棋和围棋中击败排名最高的人,这给人类留下了深刻的印象;当人类得知被人工智能赢得胜利的游戏包括那些需要足够时间和积累经验的动作和策略游戏时,他们感到非常难以致信。当计算机做的不仅仅是利用其遵循人类发出的指令并快速执行的能力时,这其中体现的人工智能才是值得人类注意的。其中一些机器的表现被夸大了,也许是因为人类对机器进步的新奇发出的欣赏信号,但我们有理由认为,随着时间的推移,机器学习将利用其自我进化的经验和不断增长的数据库来改进,以便人类会使用他们作出更多的决策。毫无疑问,机器的计算能力决定了它在裁判审前保释、定罪后假释以及哪些纳税申报单最值得审计方面将优于人类法官。事实上,已经不只有一个固执的成年人认为他或她可以优于谷歌地图找到最快的路线到达目的地,或者他或她可以自己选择出最好的餐厅而不是咨询在线聚合器,虽然这种确定最好的在线权威的给定的主体是个人还是机器仍旧是一个问题。

更值得注意的是,一个熟练的人和一个机器的结合往往优于甚至是配置最好的机器本身所能做的事情。一个能够打败人类的机器往往不如一个人类可以熟练操作的机器;这种组合的胜利,它可能不会无限期或在所有领域都适用,但目前它值得注意,而且在考虑法律适用时特别有效。通过研究自由式国际象棋(或半人马游戏)中人和人工智能的决策和行为,可以很容易地理解组合或团队合作的成功,在这个游戏中,人类可以在一定时间内咨询外界建议,至少在一段时间内,此类游戏的最强者依然会是人机结合。当这些机器单独行动时,这些组合会打败最好的机器,当然也会打败最好的人类。一般而言,人机组合中的人类的国际象棋排名远低于世界上的主流选手,而所有人都是根据他们作为个人、独自的玩家的成功来判断的。但这些组合中的人类似乎有特殊的使用机器的技能,这会让他们人机结合之后反而能够战胜排名前列的选手,所以我们也依旧不认为单纯机器或人类的组合会优于人类和机器混合的组合。

这是一个重要的一点,它值得重视和探索。就像当年最好的秘书可能是一个熟练的打字员一样,最成功的国际象棋运动员显然也是学会了与机器互动的人。在国际象棋的背景下,获胜的人善于知道借鉴机器的建议或者否定它。鉴于机器的学习能力,这在未来不一定是正确的,但在像人工智能这样的产物,随着时间的推移,人工智能与人的结合仍有可能继续保持优势。在国际象棋的领域上,对手会使用不同的方法,因为他们也在学习如何对抗机器或自由式象棋对手;而在法律,战争,股票市场等领域,这些领域可能会受影响而改变得更多,因为这些领域的组储层和反应变动都将由人工智能或人工智能组合来完成。如果人工智能凭借从过去学习的能力而取得成功,这种能力可能就显得不那么重要了,未来就变得和过去一样了。

B.人类的作用

在自由式象棋比赛中,以及在医疗保健和其他环境中,人类负责形成人机组合的方面,并可以忽略或否定机器。机器可以试图推翻人类,但最终在比赛中的下一步行动,医学的实践,以及传统的或自动驾驶的汽车或飞机等具体方案如何选择的操作,都掌握在人类的手中。

请参见下面的说明想象一下,如果国际象棋的规则每隔几年就会改变。在极端情况下,规则的改变将是随机的和不可预测的,而且数据对预测没有帮助。只有当一个模式可以被识别出来时,机器才能够预测可以取得获胜的方案。

在本文中,我们搁置了一个有趣的哲学问题,即我们如何知道未来是否像过去一样。当然,这是一个熟悉的哲学命题,就像我们如何可以合理确定太阳明天升起诸如此类的经常被哲学家当作问题的命题,对看似荒谬的想法是否合理又该如何判断。1796年有人认为乔治·华盛顿在未来会总是命令美国,发挥他总统的强制权力,这也是由于他过去一直在这样做的原因。又可以参见纳尔逊·古德曼的小说,第4版中讨论归纳法的问题进行预测。这也是一个实际中需要解决的问题,因为这里的争论是人工智能的推算能力需要一些相似性的过去(也就是说可用的数据)和未来,人类可能更好地知道如何基于洞察过去和未来之间可能的区别从而决定是否能够信任人工智能。

一个优秀的人类工人知道不要经常否定机器,尤其是在没有证据表明机器有错误的情况下。如果我们仅仅认为机器功能强大,就因为它的计算迅速,那么人类领导人机组合的优越性是远不止于此的。这种能力有助于它检查以前存储的数据,并计划未来行动。但是机器推演成功的途径的能力反映了什么是真正的机器学习。熟练有经验的人,独自操作时,可能会过于倾向于重视先例,并通常会认为这个问题与他们以前见过的问题非常相似,从而较为依赖从前的经验。因此,只有竞争环境保持足够稳定,人类和机器的结合才有可能在未来继续引领发展,维持稳定是一个重要的决定。在立法层面,我们将看到人工智能的活力,因为它与政治层面相比而相对物无需监督的机器,不容易受到人的社会性思维的影响,对于社会的立法发展有一个客观全面的视角,这是立法者所需要的。

1.目标的设置和覆盖

就目前而言,我们应当期待法官成为善于评估机器所作出的决策的人。有了人工智能面积七就会推荐(而不是最终决定或否定)最佳的强制措施、时间限制以及执法、签证和关税等投资。或许在未来的某一天,人工智能甚至可能会推荐政治竞选的获胜者,而不是简单地根据人类以前的投票模式来预测获胜者。相比于那些不应当受人工智能影响的领域,机器可以具有决定性作用的领域远远的超越了前者。机器在法律上将和私营部门一样有用。这就给人类留下了两个重要的角色。首先,人类可能会下达目标指令,就像获得国际象棋的胜利一样,人类也会规划人工智能在各个方面应当分配的效率、财富、短期或长期的速率变化。

其次,人类将有能力像在其他领域一样,在法律领域否定人工智能。这种权力很可能是允许人工智能学习成为立法的政治先决条件。随着时间的推移,人类和机器的组合将学习如何协调以及如何否定对方;人类可能只是在完成指令的中途改变目标,以改变人工智能得出的结论。人类和人工智能可能在作出解释方面存在对抗,但应该预期能够取得进展。自动驾驶汽车的发展提供了一个有力的证明。人类已经观察到自动驾驶的价值,许多人过分强调涉及实验车辆的事故,但随着时间的推移,我们希望人类在保留支配人工智能的权力的基础上,能够将决策交给人工智能。阻碍这一进展的立法者们似乎是愚蠢的。法律可能会要求汽车的车主或者制造商承担严格的责任,更重要的是,如果被告推翻了他们的机器,造成了灾难性的后果,那么法律可以让被告承担责任,从而帮助这一转变。另一方面,各种利益集团可能会导致立法向相反的方向移动,效率就变得地下,需要对新机器的许可或要求每辆车每个程序都经过频繁和昂贵的检查,甚至会有两方的运营商争夺和其他保障措施,但是不同司法管辖区之间的竞争有望带来具有社会吸引力的结果,包括税收、再分配以及选民和政治家的其他利益考虑等因素

2.数据选择

如果认为指导人工智能总是一项简单的任务,认为人类在这种人才组合中扮演的角色微不足道,那就错了。以审前保释为例,法官必须审判前作出是否释放或拘留被逮捕的人的决定;监禁在许多方面的成本都是昂贵的,但保释的主要成本是被监禁的个人可能会从事如果他或她被监禁就不会发生的不法行为的风险,此外,还有逃跑的风险。一项明显的数据显示,充分收集有关以前被保释的人的相关行为数据,并要求人工智能找出有助于判断谁应该被释放或拘留的特征。人类可以设置一个概率阈值,或者简单地要求人工智能提供与人类法官允许的拘留比例相同的数据,哪怕只是超过没有人工智能辅助的法官。不管怎样,我们的想法是尽可能释放(保释)那些犯罪或逃离司法管辖区的人。

人工智能将检测记录过去被释放的人的特征,并发现其中与那些实际上确实逃跑或没有逃跑或犯罪的人相关的因素。它可能会发现,当A法官作出裁判时,审前释放比在B或C法官裁判时更多。又或许保释金的数额也很重要。同样地,也许法官的身份和逮捕罪的性质的某方面的结合,最终做出的裁判结果也是很好的可以用来预测的数据。如果给定一个相当大的数据集,人工智能可能更擅长找到这样的连接;这项工作大多是自动化的,除非需要有人来选择收集哪方面数据,并标记人工智能进行工作。在这一点上,使用人工智能来识别A法官的决策过程,或许依靠直觉可能是有用的;A法官可能无法阐明所使用的过程,因此无法一次来培训其他法官。同样,其他法官可能会观察A法官的整个决策行为,但无法学习模仿A法官,并取得类似程度的成功。就像最好的评委,最优秀的运动员和老师一样,依靠表现出来的数据往往无法确定他们成功的原因。

3.数据可用性

然而需要注意的是,即使所有上述的这些功能都运行良好,人工智能的力量也没有得到充分利用。人工智能只提供了那些被保释的人的数据。早期的人类决策者可能会把那些如果被释放就不会犯罪的人关在监狱里,但人工智能无法测试他们的犯罪或逃跑倾向,因为他们仍在监狱里。事实上,如果人类或人工智能决策者系统地拘留具有特定未经测试的特征或特征组合的个人,那么人工智能就无法了解这群人在保释期间的行为。.假设一个足够大的样本,统计学家想随机选择的人但没有公布,然后让他们保释。之后人工智能就可以识别这个组中行为良好的子集的特征。

其他方法也可能达到同样的效果。考虑到人工智能在第一步中不是必须的;在法官A、法官B和法官C作出决定后,可以随机批准部分被逮捕和留任的人保释,并跟踪其进展情况。或者,人类可以预测法官不喜欢的某些特征,并为其他人提供保释,以判断他们的表现。事实上,对于人类法官作出的更早的裁判,我们可以选择让人工智能找到法官不同意保释的特征,然后从这个不受欢迎的群体中随机选择一个样本保释出来并进行研究。在这个过程中,立法者们还需要考虑其他一些变化,但毋庸置疑的是,人类在考虑数据限制和目标设定方面发挥着重要作用正是其中的关键。

4. 支出

在这一

剩余内容已隐藏,支付完成后下载完整资料


THE IMPACT OF ARTIFICIAL

INTELLIGENCE ON RULES,

STANDARDS, AND JUDICIAL

DISCRETION

FRANK FAGAN amp; SAUL LEVMORE

Artificial intelligence (“AI”), and machine learning in particular, promises lawmakers greater specificity and fewer errors. Algorithmic lawmaking andjudging will leverage models builtfrom large stores of data that permit the creation and application offinely tuned rules. AI is therefore regarded as something that will bring about a movement from standards towards rules. Drawing on contemporary data science, this Article shows that machine learning is less impressive when the past is unlike the future, as it is whenever new variables appear over time. In the absence of regularities, machine learning loses its advantage and, as a result, looser standards can become superior to rules. We apply this insight to bail and sentencing decisions, as well as familiar corporate and contract law rules. More generally, we show that a Human-AI combination can be superior to AI acting alone. Just as todays judges overrule errors and outmoded precedent, tomorrows lawmakers will sensibly overrule AI in legal domains where the challenges of measurement are present. When measurement is straightforward and prediction is accurate, rules will prevail. When empirical limitations such as overfit, Simpsons Paradox, and omitted variables make measurement difficult, AI should be trusted less and

law should give way to standards. We introduce readers to the phenomenon of reversal paradoxes, and we suggest that in law, where huge data sets are rare, AI should not be expected to outperform humans. But more generally, where empirical limitations are likely, including overfit and omitted

*. Fagan is an Associate Professor of Law at the EDHEC Business School, France; Levmore is

the William B. Graham Distinguished Service Professor of Law at the University of Chicago Law School . We are grateful for the thoughtful comments we received from William Hubbard, Michael Livermore, and Christophe Croux, as well as participants of the University of Chicago School of Law faculty workshop.

INTRODUCTION

In earlier generations, office workers and homemakers became more efficient by learning to work with machines. In the present era, our adjustment to human-machine partnerships is more challenging because todays machines, unlike early typewriters, word-processing software, and washing machines, can now make decisions and improve on their own. Humans will soon need to decide on a regular basis when to trust and when to overrule machines. In the case of law, as in the case of autonomous vehicles and other endeavors, part ofthis difficulty is that the most promising advances in artificial intelligence (“AI”) are opaque; errors are harder to identify because faulty assumptions and omitted variables are difficult to identify inasmuch as algorithms cannot be counted on to explain how they reached their decisions. This Article explores the division of labor between AI and human lawmakers. First, we suggest that, in stable legal environments, humans should be more hesitant to second-guess machines than should machines be discounted when machines differ with judges and other human lawmakers. More generally, we show that AI, and sensible overruling in both directions, will lead to a different mix of rules and standards in law. In addition, we explain why AI, working alone, has its flaws, and we do so with examples that touch on pretrial bail, parole, and sentencing decisions, and that draw on the laws of torts, contracts, bankruptcy, and corporations. We show why machines will turn some standards into rules and will a

剩余内容已隐藏,支付完成后下载完整资料


资料编号:[596747],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、文献综述、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。