确保人工智能遵守法律[1]外文翻译资料

 2022-12-08 10:12

英语原文共 15 页,剩余内容已隐藏,支付完成后下载完整资料


确保人工智能遵守法律[1]

Amitai Etzioni and Oren Etzioni

学术界和政策制定也越来越多地开始探讨管理日益增多的机器、机器人、人工智能体(下文将称这些为智能设备)的道德和法律规则。最终,这些讨论得出样的结论,以无人驾驶汽车为代表的智能设备具备自主性。它们很多时候自己做出决定,而这些决定很可能超出编程人员在设计程序时预置的基本原则。这些智能设备以封闭的方式做出决定,它们是会学习的设备,内置的决策系统会随着执行任务的增加而发生变化。

例如美国加利福尼亚的一名警察对谷歌无人驾驶汽车的乘客作出警告,因为该车行驶过慢阻碍交通。[2]但警察警告的对象应该是谁?乘客?但如果没有乘客呢?汽车所有者?编程人员?汽车行驶计算机?与此例相似,谷歌还被控其搜索引擎存在歧视妇女的行为,谷歌向男性推荐高薪职位的频率高于女性。[3]且在搜索结果中,搜索引擎谷歌更倾向于推广自己的业务。[4]然而,是这些歧视是编程者有意为之还是人工智能算法所得出的结果?该问题还存在于搜索结果中,在输入杰出的黑人或是历史上的黑人组织时,往往弹出逮捕记录的网页推广,[5]这可能加剧对黑人的偏见。这种行为是故意的吗?谁应为由此引发的损害承担责任?

政府应如何减少由这种智能设备进行的重复性的损害行为?本文将讨论人工智能的相关问题以及初步的应对策略,包括人工智能的有限损害(比如由无人驾驶汽车引起的车祸)以及潜在的的更大的损害(比如关于智能设备对制造者和有危险性的人类的反抗的担心)。[6]

本文关注人工智能与法律秩序的关系;而人工智能与道德秩序的关系需要单独分析。[7]尽管法律和道德秩序共同反应了一个社会的价值观,本文将道德秩序和法律秩序分开讨论的原因在于他们选择和实现价值观的原因是有区别的。在法律领域,立法机关、法庭等长期建立起来的组织担负选择实现何种价值观的工作,但在社会和道德领域却没有这样的权力机关。并不存在一种叫做最高伦理法庭的机构。 相反,道德领域选择实现价值观的方式是通过持续的道德讨论并由此引发新的道德见解完成的。[8]

我们并不能充分解释我们所指的法律秩序,而非单纯的执法,在逮捕、审判以及惩罚犯罪嫌疑人方面的作用。法律秩序也包括一些预防性的措施,如常规审计业务、定位测速摄像头以及海关。在网络时代,为了维护法律,我们将会看到需要新的工具 ,而不仅仅是新的工具。

首先,本文在第一部分指出了人工智能程序的独特特点:人工智能程序自行做出很多决定、缺乏透明性,而且经常作出改变。其次,本文在第二部分中指出独立的人,如审计员、会计、检察官、警察等,无法确定智能设备是否违法。人需要人工智能程序的协助,我们将其“人工智能的监护程序”。人工智能监护程序分析并监控在智慧设备中进行引导的人工智能运行程序。再次,在第三部分本文提出疑问,是否人工智能运行程序应被设计为允许人类用户的越权操作——没有这样的设计,越权行为将会将会削弱法律秩序。随后,在第四部分,本文指出智能设备能具备很强大的监控能力,且在网络时代,人工智能监护程序在保护个人权利有很重要的作用。最后,本文在第五章讨论了智能设备的自治所导致的威胁远超法律秩序,它们可能发动起义,杀掉制造者甚至可能导致人类的毁灭。

1.人工智能的独特特点

起初,关于智能设备挑战现有法律的报道看似有些夸张。毕竟法律成功地规制了多种多样的设备;这些规则管理很多事务,从割草机的合法产生噪声到工厂的合法排污。有观点认为对自主驾驶(又称自动驾驶、无人驾驶)汽车的管理很简单,只要要求其服从旧有的机动车管理法规。然而,这种想法就像要求特斯拉的“T”型车服从马车的管理规定一样。要求无人驾驶汽车遵守目前的法律会导致其牺牲很功能;比如 ,如果对无人驾驶汽车划分出专门的车道,与传统汽车相比,无人驾驶汽车可以以更快的速度安全行使。事实上,历史证明新技术的应用往往需要新的法律,从枪械和DNA检测到蒸汽机和无人驾驶飞行器,历史在不断重演者。然而我们需要知道的是,维护法律秩序,我们需要的是新工具而非大量的新法律。

由于智能设备的独特特点,无论新旧法律都需要人工智能的协助。智能设备具备相当的自主性,它们可以自行做出很多决定。[9]这些设备通过使用复杂的算法,可以对周围环境进行独立感知,就像有人在实时录入一样:它们可以自行得出结。[10]它们可能脱离或反抗编程者预置的基本原则。例如,无人驾驶决定何时改变速度,与前者的距离,甚至可能决定违法超速行驶——当它们注意到其他车辆都在超速行驶。自动紧急刹车系统,[11]是指汽车在人类没有命令的情形下自动反应以规避危险。这种系统得到了日益广泛的应用。[12]用户抱怨该系统的错误警告、可能威胁其他车辆安全的突然刹车[13]以及这些刹车系统强迫汽车直行,即使是驾驶员希望转弯前往其他地方。

具备自动运行系统的人工智能正在变得日趋神秘,对于人类来说甚至是个黑匣子。Viktor Schonberger 和 Kenneth Cukier 在大数据一书中指出:“今天,计算机代码是开源和可见的hellip;hellip;而随着大数据分析的应用,这种可追溯的实现会变得更难。算法预测的基础对于大众可能经常是难以理解的。”他们补充,“hellip;hellip;背后的算法和数据集将会成为黑匣子,使得我们无处问责、无处追溯,对大数据丧失信心。“[14]

另外,引导智能设备的程序应用了学习系统。学习系统不断地对周围环境和智能设备的表现作出评价进而根据评价对其内在的指导原则作出修正。智能设备自启动后就不断地收集数据;进一步的数据收集允许智能设备从经验中进行学习并提升表现。因此,这些人工智能程序很可能偏离编程者最初设置的指导原则。事实上,智能设备可能对抗它们的制造者和使用者的命令。因此,无人驾驶汽车不能在测试和认证前上路,放任假设——其引导系统面对真实环境下的新的信息也不会做出改变——的发生。例如,无人驾驶汽车可能注意到其他汽车小范围的超速行为,但不会引起危险,于是无人驾驶汽车也提高了速度。下文将探索个人和社会对智能设备这些特点的应对措施。

2. 人工智能监护程序

智能设备的独特特点引发的潜在风险对现有法律导致了很多挑战。而这些风险是故意引发的?谁应当为这些损害风险承担责任?谁又应当承担损害的法律责任。下文的思想实验将会给出答案。试想非裔美国团体以贷款申请拒绝比例名额不平衡为由起诉一家银行。作为回应,银行工作人员表示,过去三年,银行应用一个人工智能程序来完成贷款的许可和拒绝程序。在选择程序时,银行提出要求,软件必须禁止使用种族或相似的变量,如邮编,来进行评估资信水平。但原告认为这一程序仍存在歧视。原告举证,非裔美国人和白种人的资信评分相同,甚至优于白种人,但银行仍拒绝了向非裔申请人发放贷款。

一个歧视的结果还不能说明这一问题的存在。歧视的目的和责任问题仍然存在,因为相较过失犯罪,法律对故意犯罪的惩罚更加严重——具体可见一级谋杀和过失杀人的区别。(戈里格斯诉杜克能源案引发了社会对是否建立伤害是故意的的这一评估因素。[15])有必要回答这些问题,也是为了确定谁应为这些损害承担责任。现在回到我们的思想实验——法庭认为损害已经发生。但仍需要确定的银行是否通过委托编程者将种族视为评估变量而故意引发这种损害的——尽管银行对此表示否认。或者程序通过处理数据自行习得种族是个高效的变量,可以替代社会等级、教育水平和地理因素以减少计算量。

法庭能够传讯计算机编程专家作为专家证人,但她可能指出人类是无法阅读人工智能程序以确定它的偏见是编程者行为还是程序的自动行为。以上所述,一般人无法追踪程序作出自动决定的具体步骤,因为整个过程是无记录保留的。我们认为法庭所需要的——不仅仅是法庭,包括其他相关组织和个人,需要确定智能设备行为的目的、职责和责任——是人工智能调查人工智能。

法律需要智能设备解决智能设备的问题。目前为止,社会观点认为人工智能是一个涵盖面很大的领域,从IBM的“深蓝”到飞机的无人驾驶仪和手术机器人。 从此开始,人工智能应被化为两类。第一类是人工智能人工智能运行系统——用于智慧智能设备的计算机化的“大脑”。第二类可以被设计为与第一类不同的、使人工智能运行系统严守法律的用于监控人工智能程序的程序。我们称作“人工智能监护人”的这些监督程序涵盖了讯问、发现、监控、审计人工智能运行程序并保障人工智能的服从的人工智能程序。

无人驾驶汽车就是一个很好的例子。由于无人驾驶程序中预置了学习能力,并允许程序作出改变,这些程序需要一种特别的人工智能监护程序,一个人工智能监控者。监控程序可以在路途上监视无人驾驶车辆,防止它通过学习掌握违法行为。与人类乘客不同,这些程序不会对监控速度并保持与其他车辆的车距感到疲惫,它们甚至能在没有乘客的情形下,担负监控责任。人工智能组织目前还未对人工智能运行程序和监控程序作出区分,因为很多人工智能学者仍旧保持着最初的与互联网结构紧密相关的理想。他们希望互联网成为一个平等的领域,而非有等级的;在这里,人们可以自由的合作,而不是像现实中的监控、孤立和管辖。[16]然而,在过去几年中,互联网已经从理想的乌托邦变成了黑暗的森林,为黑客、骗子、小偷、、流氓、无赖提供藏身之所。互联网越来越需要加强管理,因此我们认为世界会从人工智能监护程序的发展中受益。人工智能审讯程序通过调查运行程序是否使用了病人病历以精准营销、作出雇佣决定、提高或降低信用额度等,会查明运行程序是否违反隐私法律。这样的人工智能审讯程序需要确定的不仅仅是病历信息是否被滥用,还包括滥用是否是编程者(或其他相关人员)的故意行为,这种滥用行为是否是通过非法取得医疗数据或搜索医疗信息完成的,而后者目前是合法的。例如,如果人工智能程序接到了一个癌症病人的贷款申请, 该程序的审讯程序会监测程序是否从医院或医生处非法取得信息,或从消费决定用搜索出该人的情况。(例如,一个人购买了假发,大量的肥皂和维生素补充剂。)

其他的人工智能监护程序具备很多的监控功能。人工智能审计程序会确定金融计划软件是否引导用户在保险和投资领域正常投资,防止人工智能的开发人从中获利。人工智能审计软件可以认定搜索引擎提供的结果更倾向于搜索引擎的所属公司或者广告商。 同时,人工智能检察软件可以评估人工智能网络安全程序,比如限制信息访问,并在拒绝访问后报告非授权方位。随着越来越多的设备中融入仍工智能运行程序,多样化的人工智能监护程序监督任务执行的需求也在增长。 简言之,需要更多的人工智能程序确保人工智能程序守法。

与人类监督人员相比,人工智能监护程序具备两个优点。首先,在人工智能监护程序的监督下,知识产权和隐私权受侵犯的可能性更小;第二,在与人类完成相同的监管任务时,人工智能监护程序消耗的资源和时间更少——如果监护程序可以被优先使用。

3.越权操作,允许还是禁止?

起初,普遍观点认为应设计机制限制智能设备的自动行为,也即越权机制。这种机制提供给人类否决权,禁止智能设备的某些行为。例如,如果无人驾驶汽车的乘客目睹他人被困正在燃烧的汽车之中,他们会停车施以援助;而无人驾驶汽车则会继续高速前进。人类会降低车速以欣赏风景或者超速行驶赶往医院。目前,所有的无人驾驶汽车都有这种机制。一些情形下,无人驾驶汽车允许有驾照的乘客进行操作。[17] 在纽约,地方法律甚至要求需要有人一直将手放在方向盘上。[18] (如上文所述,由于新技术的应用,这种法律需要修改。)

相反,有些人认为不应存在越权机制,因为这会导致越权机制的滥用。人们会醉酒后超速行驶或者由于“路怒症”而危险驾驶,因此威胁自己和他人的生命。

您需要先支付 30元 才能查看全部内容!立即支付

课题毕业论文、文献综述、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。