夏勇 :试论美国学者对人工智能法律问题的研究

发布时间:2022-09-15浏览次数:10

本文转载自微信公众号:国外社会科学。原文发表于《国外社会科学》2022年第2期;因篇幅限制,注释从略,引用请以刊物原文为准。

作者简介:夏勇,中南财经政法大学刑事司法学院教授、博士生导师;尉立坤,中南财经政法大学刑事司法学院博士研究生。


摘要:美国学者对人工智能法律问题的研究,以人工智能工具体和意识体的区分为视角,主要讨论了人工智能的言论自由、人工智能对权力与权利关系的影响、无人机对隐私权的影响以及人工智能可否拥有公民权利等宪法问题;人工智能的民事主体定位,能否拥有民事法律权利、承担民事法律责任,拥有和继承财产等民事法问题;控制人工智能风险的责任分工、制定无人机等人工智能体法律法规等行政法问题;人工智能的刑事责任能力、自动驾驶汽车等机器人造成危害结果后如何承担刑事责任等刑事法问题;人工智能可否决定国家使用武力、如何使用武力以及相应责任等军事法问题。这些研究成果视野开阔、范围广泛、内容具体,展现了较强的理论逻辑和学术想象力,值得借鉴。由于人工智能处于大规模使用的初期,现实法律问题的个案有限,相对于解决问题,美国学者的研究更多的还是提出问题。


关键词美国学者;人工智能;法律;权利;责任

美国皮尤研究中心网站于2018年12月发表了来自埃隆大学等研究机构的几位学者撰写的论文《人工智能和人类的未来》。该文是在向979名技术、商业、政策等领域的领军人物提出问题并得到回答的基础上形成的。提出的问题是“随着新兴算法驱动的人工智能不断普及,人们的生活状况是否会比今天更好”。每人做出数百字的书面回答,再由作者对回答内容进行统计、分析和总结。回答者普遍对人工智能带来的问题表示担忧,汇集起来主要包括以下方面。(1)由人工智能对事情做出选择,人们却不知道其运作原理,会使人类丧失对生活甚至生命的掌控,牺牲独立人格具有的隐私权和选择权。(2)人工智能一旦滥用数据,就会侵犯公民个人信息。(3)人工智能的自动化会替代大量机械性工作甚至智力工作,从而导致失业。(4)对人工智能机器网络的过度依赖会使人类思考能力下降。(5)人工智能武器和网络攻击行为会给社会带来混乱。(6)人工智能会给个人隐私、集会等基本权利的实现带来挑战。(7)人工智能会导致财富垄断和权力集中的不公平现象。面对这些挑战,受访者呼吁全球合作,促使人工智能符合“人性”和公共利益,使技术能够满足社会需求和道德要求,更好地为人类服务。作者认为,对这些问题都需要展开广泛讨论,政府、学者、企业家、个人应当围绕“我们选择什么”而非“会发生什么”进行深入思考。

他山之石,可以攻玉。对于上述问题,在科技水平全球领先的美国,近年已有各界人士从不同方面进行反思,这无疑具有借鉴价值。本文旨在梳理美国学者对人工智能法律问题的关切,以期从中获得一定启示。

一、美国学者研究人工智能法律问题的两重视角

“人工智能就是让计算机完成人类心智能做的各种事情……人工智能有两大主要目标:一个是技术层面的,利用计算机完成有益的事情(有时候不用心智所使用的方法);另一个是科学层面的,利用人工智能概念和模型,帮助回答有关人类和其他生物体的问题。” 据此,这门新的技术科学的成果就是对人类智能的模拟、延伸和扩展。换言之,通过人工智能技术科学研究和开发出类似人类意识过程且效率远超人类的物质载体,这种人工智能体本质上只是人类发挥自身智能的工具。然而,上述定义也指出:人工智能的理论和技术日益成熟,应用领域不断扩大,未来人工智能可以像人那样思考,也可能超过人的智能。在这个意义上,人工智能体不仅仅具有工具性质,而且可以成为独立的意识体。事实上,美国学者对人工智能法律问题的讨论正是在工具体和意识体两种意义上展开的。用阿什利·迪克斯等人的话来说,作为工具体的人工智能是利用算法“告知”(inform)决策,而作为意识体的人工智能是利用算法“做”(make)决策。

(一)工具体意义上的人工智能法律问题

科罗拉多大学法学院和斯坦福大学法律信息学中心的哈里·苏尔登副教授认为,目前的人工智能体仅是通过提前编程来处理和使用数据的机器人,还不是严格意义上的“智能”,因为它无法代替人类思考。在涉及概念、抽象、主观、开放、政策或价值导向、常识或直觉、说服或交谈、社会规范、社会结构、社会制度等事项时,它的表现尚不能令人满意。总之,人工智能是将通常需要人类智慧的任务加以自动化的技术。或者说,人工智能是提高人类效率的工具。在此,人工智能和法律的关系体现在:人工智能会使法律的应用更为简便。正如美国知名科技博客“小发明”(Gizmodo)的高级评论员乔治·德沃尔斯基所言,“当下的人工智能尚处于婴儿期”,它们“仍是我们可以看到其成果的无形算法,而不是生活在我们世界中的有形机器人,人工智能仍依赖于编程者,最终,它们仍是提供协助而非取代”。

苏尔登指出,法律界应用人工智能的尝试早已有之,在20世纪70—90年代,主要是运用“知识表示”技术,通过计算机对立法和司法过程进行模拟。自2000年开始,人工智能和法律的结合开始向基于“机器学习”的技术转变。当下,人工智能主要着眼于法律实施中三类主体的不同需求。其一,对司法和执法人员而言,法官可利用人工智能来评估犯罪人再犯的风险,政府机构在判断申请人条件时使用人工智能,而警方会将人工智能用于警务预测和人脸识别。其二,对律师等法律从业人员而言,人工智能的帮助较小,停留于机械或重复性工作的替代,难以运用抽象思维和人类情商为客户提出咨询建议和解决问题,也不大可能进行政策分析和战略规划。其三,对个人或企业而言,可用人工智能自助系统提供日常行为合法性咨询和订立电子合同。

苏尔登认为,目前这种人工智能与法律的结合主要存在以下问题:第一,一旦人工智能采用不当数据会导致法律实施的不同对象受到歧视;第二,操作者难以介入人工智能的速算过程,会导致执行法律时的决策过程不够透明;第三,以纯粹理性对人们的行为进行法律判断,难免忽视个体经验、潜意识、第六感等重要的感性作用。

(二)意识体意义上的人工智能法律问题

法律作为行为规范,具有指引功能和评价功能。法律规范的指引功能其实有赖于其评价功能,而评价功能的着眼点是对违法的处置——法律责任——这正是法律强制性的表现。追究违法者法律责任的基本前提则是行为人必须具有被法律评价的责任能力——主体资格。然而,在人工智能作为工具体的意义上,法律责任的主体无疑是人类的个体及其组合体——法人等,人工智能体至多对这种主体的法律责任产生认定上的影响,而不存在人工智能本身的法律责任问题。正如乔治敦大学法律中心的大卫·维戴克(David C. Viadeck)教授所总结,目前机器做出的决定,都可追溯到设计者、编程者和其他人,它的进程由人类加以定义、引导并最终控制,无论其多么复杂,也只是由人类使用的工具。然而,未来可能会进入市场的“完全自主”(full autonomy)的人工智能或“全自动机器”(fully autonomous machines)则不同——社会将需要考虑现有的责任规则能否确定它们因过错行为而应承担的法律责任。他引述牛津大学未来主义者尼克·波斯特洛姆教授对全自动机器的说明,即“能够拥有独立的主动权,能够制定它们自己的计划……或许把它们视为人而非机器更为合适”。

维戴克教授进一步解释,也许自动驾驶汽车和无人机会作为第一代全自动机器拥有完全自主行为的能力,它们将不再是被人类使用的工具,尽管是由人类开发,但不再需要人类直接的行动指令、介入或干预,而是自行取得和分析信息,常常可在非预期的情况下独立于它的创造者做出符合情理的决定。既然全自动机器能够像人类一样自主“思考”和行动,那么一旦违法该如何适用法律?由于机器的行为没有体现人的意志,追究人类主体的责任不合逻辑。除非法律给机器赋予人格,否则无法让其承担法律责任。他还说,能够按照自己意愿来实施行为的全自动机器,与“主人”的意志背道而驰,不再是任何法律中的代理。也就是说,既然不是代理或越权代理,那么全自动机器应当独立承担法律责任。

可见,从工具体和意识体两个视角研究人工智能法律问题,其实是分别对当前发展阶段的人工智能所涉及的法律问题和未来的人工智能所涉及的法律问题进行观察。针对这两个研究视角,有美国学者指出,至少在可见的未来,人工智能并不对人类构成威胁。如果过多讨论人工智能可能带来的“人类末日”,会导致对现实问题的忽视,应注重人工智能带来的直接挑战和对现实社会的影响。但从美国学者实际讨论的话题来看,两种视角的研究并驾齐驱,不分伯仲,且往往相互结合,一体展开。这反映出美国学界对未来研究的包容和重视。美国虽然是奉行实用主义的国家,却从不将研究的触角局限于当前,这正是其现代科技始终保持领跑位置的重要秘诀之一。这样的研究传统和意识也深深地渗入包括法律科学在内的人文社科领域。我国对人工智能法律问题的讨论,尽管同样是在工具体和意识体两种意义上展开的,但特别突出了二者的时间定位:“弱人工智能时代”和“强人工智能时代”。显然,前者是当下,后者是将来。在这样的语境中,习惯于“密切结合当前实践”和“与时俱进”注解法律的我国法学界,自然更加重视工具体意义上的人工智能法律问题,而对意识体意义上的法律问题则不那么在意甚至不屑一顾。然而,回顾人工智能从无到有和迅猛发展的历程,毫无疑问,人工智能由弱到强是难以逆转的趋势,作为科技成果的人工智能正在极大地改变作为法律调整对象的社会生产关系和上层建筑结构,这就需要作为社会关系调整器的法律未雨绸缪,早作准备。

二、美国学者对人工智能宪法问题的研究

亚利桑那大学宪法学教授托尼·马萨罗等指出,带有交流功能的人工智能会推动规定言论自由的美国宪法第一修正案的改革。具体而言,第一修正案能否适用于人工智能?他认为,尽管所谓“强人工智能”(strong AI)的时代何时到来并不确定,但人工智能“演讲者”(speaker)的言论自由能否受到第一修正案的保护问题,已然不可回避。美国学者较为一致的认识是,如果人工智能的表达是对社会民主活动及进程的参与,对人类听众具有价值性,则应当或可以得到保护。第一修正案保护的是言论(speech),而非“演讲者”。不过,关于人工智能是否“表达”言论,存在不同认识。有学者认为,人工智能产生的不是言论,而是不属于第一修正案保护范围的行为(conduct)。但更多学者认为,至少一些或部分机器的输出可被视为言论,因为它们会产生知识。甚至,大多数算法可被视为言论,因为它们包括“可发送和可接收的信息”。

在马萨罗等学者看来,承认人工智能受到第一修正案保护,需要克服一个弊端——与人类的言论相比,人工智能的言论(算法)难以得到有效监管,同时,第一修正案并不意味着不对有害言论加以取缔和追责,这往往要求证明存在某种意图,人工智能的意图恰恰难以证明。然而,这些困难不能否定保护人工智能言论的必要性,否则会导致政府剥夺听众接受有价值表达的权利。也就是说,保护言论的重心在于表达权对人类听众(而非包括机器在内的演讲者)的价值,这才是人工智能言论保护的真谛。因此,人工智能言论保护在适用于保护人类主体的第一修正案方面应当不成问题,未来强人工智能拥有宪法赋予的言论自由权是合理的。

加州大学戴维斯分校法学院伊丽莎白·约教授讨论了警察运用人工智能引发的执法权力与个人权利的冲突——在卡彭特诉美国(Carpenter V. United States)一案中,联邦调查局通过手机对行为人进行定位,被联邦最高法院认为违反了宪法第四修正案,属于非法的无证搜查。那么,通过智能系统在公共场所对人和车进行识别,也涉及搜查及其合法性问题。而且,相比于对特定人员进行手机定位不符合宪法规定的正当程序,对不特定人员及其财产进行智能识别还同时侵犯了更多人的隐私。也就是说,尽管警方运用人工智能可以大大提高维护社会治安的效力,但基于保护社会大众隐私权的目的,需要将警方运用人工智能定位和识别的活动视为搜查,并要求事先申请搜查令。随着技术在普通执法中的普及和日渐强化,执法活动的类型归属及其合法性问题也将会更多地摆在法官面前。

加州大学黑斯廷斯法学院学者詹妮弗·本特利讨论了执法无人机与隐私权的关系。根据2016年美国联邦航空管理局(Federal Aviation Administration,FAA)统计,美国共有250万无人机,预计2020年将达到700万,其中不少为警方、消防、应急等执法部门所用。这引起了公众和隐私保护组织的担忧,“一旦有了监视和数据存储设施,用来实现其他企图的诱惑是无法阻挡的”。然而,无论联邦还是州或地方,对无人机的法律规制都很薄弱。虽然联邦层面已有针对无人机的立法,但重在飞行安全而非隐私保护。一些国会议员正在尝试提出旨在保护公民隐私不受政府干预的法案。另一些议员认为,州才是保护隐私立法的最佳主体。为回应保护团体和公众的诉求,过去几年间各州都在不同程度上出台了相关法律。不过,美国联邦航空管理局认为涉及管制空域的这些立法都侵犯了联邦法律所授予的专有权力。就这些州法律对隐私权的保护来看,有18个州要求执法部门在使用无人机监视或调查之前申请搜查令,32个州要求执法部门在非紧急情况下取得搜查证。但在特定利益群体面前,一些州的此类努力归于失败。在州法律的空白之处,地方政府采取了一些保护公民隐私和公民自由的措施。从司法看,涉及隐私权的一系列判例,尤其是最高法院20世纪80年代在三个关键案件中确立的航空监视规则,都是基于载人飞行器,仅有部分被用于无人飞行器。这些规则难以适应无人机对隐私形成的挑战。隐私一向被视为州和地方管辖的领域,仅在特定情况下由联邦管理。但是,若由地方规制,则容易造成规则的冲突。因此,州立法应是最佳选择。本特利还拟出了有关无人机监视的具体立法议案,包括对执法部门使用无人机的限制(用于搜查的期限、程序、场合、抗辩),数据保留的限制(时间、保存要求、检索程序、使用),基于无人机平台的技术限制(感官增强技术、武装设备)等。

  

纽约州立大学杰森·泽诺副教授预判人工智能会逐步取得公民才享有的宪法权利。“20世纪之前,大概想象不到动物会出庭或者公司有宗教权利。但今天这些都成了现实。人工智能亦是如此。”他认为,人工智能获得法律人格的过程,极有可能与动物和企业类似。此外,美国的历史也呈现出某种昭示——“宪法曾赋予作为财产的奴隶以投票权,来增加南方蓄奴州在国会中的分量。人工智能也可能会出于此目的被当作人”。这就是说,出于利益平衡的需要,人工智能的表决权将成为一个宪法考量的问题:是人工智能自身行使投票权,还是由谁最终控制投票?

斯坦福大学研究员伍德罗·哈托格指出,当人类体内植入机器时,将引起隐私权和自主性的危机——前者涉及个人宪法权利的保护,后者涉及公民宪法地位的确定。

可见,美国学者十分关注人工智能涉及的宪法问题,就人工智能是否享有公民的基本权利展开研究,重点讨论并肯定了人工智能的言论自由权利。同时,面对无人机等人工智能手段不断增强公权力执法能力的趋势,表达了对公民个人隐私权利保护的担心,提出了人工智能参与执法的合宪性和相应立法制约的必要性问题。显然,美国学者对人工智能法律问题的研究遵循了宪法至上的一贯原则,并且将个人权利本位作为研究的出发点。这给予我们的启示是,尽管各国政治制度和法律本质不同,但宪法作为一国的根本大法,是任何部门法建设和任何具体法律问题研究的基础。值得肯定的是,我国学者也注意到了人工智能领域的一系列宪法问题:人工智能会不会改变“人”的概念?人的主体性在人工智能面前能否继续坚持?人的道德判断会不会被解构进而被否定?自由、平等与民主等一系列基本价值是否会被削弱?要控制科技的非理性,在发展科技的同时保护人的尊严,把风险降到最低,我们必须要选择一个制度安排,这就是“宪法治理”,否则,“一百年以后我们将面临无法想象的社会”。我国学者指出,从更为宏观的历史视野来看,科技革命必然带来法律规则的改变,人工智能的发展也不例外。只有通过宪法的干涉,才能避免人工智能时代资本和技术精英对资源的垄断。中国共产党和中国政府既需要高度重视人工智能所带来的重大改变,也需要通过宪法积极调整和弥补人工智能可能引发的对社会平等的冲击。我国学者的这些研究十分有益,但与美国学界关注的人工智能宪法问题相比,还显得宏观和抽象了一些,仍有待于在“权利”与“权力”的关系中得到深化。

三、美国学者对人工智能民事法律问题的研究

美国学者卡米尔·穆齐卡注意到,目前有一种“心智上传项目”(mind uploading project),即通过扫描神经网络对大脑进行模拟。他指出,此种项目的可能结果是创造一个类似人类大脑且能工作的有机复制体——“恩特”(ent)。进而,有能力开发制作“恩特”的人,也会有能力雇请律师和游说团体说服最高法院将“恩特”视为人类。如此一来,会产生一系列民事法律问题。例如,特定人类个体死后,其“恩特”备份能否在其配偶和孩子之前继承?“恩特”的备份原则上应在原本人类个体死后才能激活,但人类个体昏迷时能否激活?如果备份激活后原本的人类个体又苏醒过来,从而出现了重复主体,该如何处置?如何防止恶意提前激活备份而导致重复主体?备份能否终结原本人类个体的生命?这些问题的实质是“恩特”在民事法律上具有何种地位,以及备份与原本人类个体之间的关系。此外,“恩特”还会带来“虚假身体”问题——与现在日益增多的用人造部件来取代部分身体或器官的做法不同,“恩特”更可能给人类个体制造一个完全虚假的身体,赋予全新的外表。还有,“恩特”能否结婚或抚养孩子?这些问题同样涉及人工智能的民事主体定位。

洛约拉马利蒙特大学洛约拉法学院教授劳伦斯·索伦认为,人工智能成为法律意义上的人,仅具有理论意义。要回答人工智能是否应该被赋予某种形式的法律人格,必须等到我们的生活方式使这一问题具有紧迫性。不过,做出这一论断的时间是20世纪90年代初,距今已近30年,当今,人工智能成为法律主体日益具有现实性。需要注意的是,索伦教授当时指出寻找人格的边界并不容易,其原因至今仍然成立。(1)人格概念与人性概念不易区分。(2)人格边界比较模糊。胎儿或植物人不能像正常人一样行为,却依然是人,而具有精神生活的一些高等哺乳动物,则不被认为是人。(3)认知科学目前还无法揭示意识、感情等精神生活的基本进程。总之,成为人之标准的因素本身难以把握,影响着人工智能在法律上的主体定位。

在杰森·泽诺看来,人工智能获得宪法性公民权利的起点和进路是在财产法和经济法领域。传统财产法的一个基础是人类控制财产。如同曾经的动物,较低水平的人工智能是受到控制的客体,责任由所有者承担。但是,人道地对待动物却很少遭到反对,这成为动物取得权利的开端。同样,企业也是因为争取到民事财产权利而成为法律意义上的人。试想,人工智能独立地为人或企业工作,却没有被赋予获得报酬的经济财产权利,是否意味着人工智能被作为奴隶对待?这当然会引出平等主体的权利诉求。

宾夕法尼亚大学法学院的艾丽西娅·拉伊回顾了美国立法和司法承认公司人格的历程,以此说明人工智能取得部分人格地位和承担民事责任的可能性,并指出,人工智能的商业化不可避免地会带来一些侵权现象——如果面向消费者的技术在错误的环境中使用或基于错误的假设进行编程,则可能导致经济损失、财产损害、人身伤害甚至死亡,这是必须面对的挑战,然而,人工智能的赔偿责任在各国立法中几乎属于真空地带,法院对此类案件也很少提出意见。无法回避的是,传统侵权法适用于人工智能出现了困难:如果人工智能技术被归类为产品(product),则适用传统的严格责任(strict liability),但这不利于人工智能的开发者和制造者,从而阻碍人类创新和福祉的推进。如果人工智能技术被归类为服务(service),则适用疏忽规则(negligence rule),适用的前提是将因果关系追溯到操作员——虽然通常可以证明人工智能系统造成了损害,却因运算过程的复杂性难以证明这种损害是由系统背后的操作员造成。当前的过错责任要求因果关系追溯到后者(即操作员)。因此,拉伊认为,简单有效的办法是部分授予人工智能系统类似于公司的人格。所有人工智能系统都以有限责任公司的身份直接承担责任,开发者或制造者则因技术造成的损害承担有限责任。这实际上是人工智能体分担甚至取代了开发者和制造者的责任,有利于人工智能技术的创新。同时,这也为受到损害的消费者获得经济补偿找到了恰当而方便的根据。

《华盛顿法律、科技与艺术杂志》(Washington Journal of Law, Technology & Arts)刊载了埃默里大学法学院2016级学生大卫·罗森伯格专题讨论强人工智能体(strong artificial intelligent robots)是否有权拥有不动产的文章。该文中,强人工智能被称为“经认证的智慧生命体”(原文表述为“Clive”,全称为certified living intelligent valued  extraterrestrial  )。美国的财产法原则上允许自然人和拟制人(artificial persons)拥有财产。但是,宪法和其他涉及不动产的法律不仅仅是规定财产所有权,其背后还包含着道德的人文因素——“一个平等对待和尊重每个人的自由民主的社会的法律框架”——个人的自尊。将此权利扩展到Clive,意味着人工智能体也会获得神圣的人类自尊。这是需要深入研究的。在罗斯伯格看来,在判例法和现实世界中,即使是充当工具的弱人工智能体(weak artificial intelligent robots)其实也已具有一定的代理(agent)意义。Clive则凸显了这一意义——如果Clive为房地产雇主工作,却因为有自己的想法而决定在工作以外行事,谁应承担责任?当前的代理法可以解决此问题。如果第三方合理地认为Clive是在行使代理权,则Clive要承担相应的责任。罗斯伯格同样是用公司人格理论来支持Clive拥有财产。

可见,美国学者对人工智能民事法律问题的研究主要集中在人工智能是否具有“人格”。学者们试图运用法人资格、代理关系等既有民法原理论证人工智能体在民事活动中的主体地位,从而确认人工智能体在法律上的人格,有效解决人工智能引发的民事纠纷和民事责任,实现对相应致害的民事赔偿。学者们也注意到这并不简单,尤其在继承法、婚姻法等人身权利属性突出的领域,人工智能取得人格的论证还面临诸多诘难。不难看出,美国学者对人工智能民事法律问题的研究范围广泛,内容具体。相比之下,我国学者虽然列数了人工智能对民法带来的诸多挑战,涉及民事主体、人格权、隐私权、肖像权、数据财产、知识产权、侵权责任等,也提出了一些具体方案。但是,并没有从财产权与人身权相区分的权利类型化角度进行研究,也缺乏解决问题的理论探寻,对此,美国学者的研究成果值得借鉴。当然,关于人工智能取得“人”的资格所需要的道德与情感因素,美国学者还处于困惑之中,尚需各国学界大开脑洞,攻关释难。

四、美国学者对人工智能行政法律问题的研究

马修·谢勒律师指出,美国有数个州的法律涉及无人驾驶汽车和无人机,但缺乏人工智能的专门立法规制,学界对此也鲜有研究。人工智能具有行动自主性,难以预见和控制,其开发和运行隐秘、分散、不透明,现有公权机构的监管力不足。具体说来,立法机构民主但欠缺专门知识;政府机构灵活且专业但有不民主之嫌;司法机构有助于事实调查,但只有在当事人提出诉求时才能做出反应。这就很难实现对人工智能的积极而有效的监管。该律师建议制定人工智能发展法案(Artificial Intelligence Development Act),设立专门的认证机构,明确相关政策和程序,规定人工智能商业化的标准。同时,为避免对技术发展造成干扰,该机构应在一定程度上与人工智能分担责任。此外,基于市场规律,还可要求人工智能的制造者和操作者为其购买保险。

华盛顿大学法学院副教授瑞安·卡洛指出了人工智能会带来技术风险——影响网络安全;权利风险——侵犯个人隐私;秩序风险——数据的掌握导致市场垄断;甚至人种风险——可能终结人类本身的存续。这就需要控制风险,加强监管,确保安全。然而,安全是一个相对概念,通过监管获得的安全需要达到何种程度?是否要求无人驾驶比人类驾驶更安全?“人类”的范围如何把握?在何种条件下进行比较?应比人类操控安全多少?这些都关系到监管政策,是行政立法的前提。关于行政监管的内容,他提出,一些职业要求人类预先取得执业证明,是否对人工智能也有资质要求呢?又该如何要求?进而言之,人工智能被纳入行政监管的对象,是否有理由对其征税?

北达科他大学的杰里米·斯特劳布和乔·瓦采克两位学者发表专文讨论无人机给飞行器的管理及责任带来的新问题。他们指出,载人飞行器的飞行员需要通过美国联邦航空管理局知识测试取得执照,但无人机操作人员却不需要,技能水平难以保证,将不可避免地增加事故。此时,第三方主体可能承担责任。然而,由于联邦监管法律的局限性,美国联邦航空管理局尚缺乏对业余爱好者的要求。这就使得自主控制的无人机引发侵权事件时难以确定责任主体——是操作者还是开发者,或者是维护和检修人员?由于受害者无法确定谁在远程操作无人机,因此责任主要由所有者承担。他们为此提出管控建议。第一,无人机的注册应从制造商开始,生产的每架无人机均应有序列号。第二,如果出租人或所有人仅是购买却从未占有、检查、操作过无人机,那么长期租赁者应被视为所有人,应在其名下登记无人机。第三,在租用无人机的情况下,只要所有者保留操作者的明确记录及事故发生的时间且能证明操作者拥有保险或足够的财产,即可免除所有者的责任。第四,在受害者起诉所有者的情况下,所有者若要解除自己的责任,须向法院提出申请,要求并证明操作者才是被告。第五,如果所有者可证明操作者操作无人机,但操作者不满足最低标准的保险或财产的,则分担责任——操作者在其保险或资产限额内担责,所有者为差额担责。第六,所有者不对惩罚性赔偿负责,除非其有主观过错。如果操作者有充足的保险或财产,不必追究所有者责任。第七,所有者有过错或无法证明操作者的责任,则所有者负责赔偿。所有者应对无人机的任何缺陷负责(除非这种缺陷是由操作员直接造成的)。第八,受害人承担责任的场合包括:(1)被害人在事故发生时对无人机的操作有实际了解,或有足够时间就无人机的操作发出警示;(2)事故发生在专门用于无人机操作的区域(带有适当的指示牌);(3)事故发生时被害人正在闯入或被迫进入(存在明显告知的)该区域。如满足这些条件之一,则还应考虑:即使没有无人机,其行为是否危险;是否在了解无人机操作知识或收到了警示的情况下,仍采取不理智或不合理行为;事故发生或临近时是否存在开始实施针对所有者或操作者的侵犯行为。要受害人分担责任,通常还要求受害人的行为导致或加重了无人机的损害;受害方受伤(或加重伤害)是因为自身的疏忽;受害人知悉当时存在受伤的风险。

两位学者认为,上述规范可以由国会制定,使其成为美国法典的一部分。目前尚不清楚国会议员是否将此视为需要解决的问题。不过,联邦法规的僵化可能难以适应不断变化的无人机行业。然而,联邦法律未授权美国联邦航空管理局颁布涉及上述内容的法律法规。由此看来,各州倒是有余地做出更多限制性规定。

可见,美国学者对人工智能管控的行政法律问题相当重视,研究较为细致,主要包括以下特点。第一,正视人工智能的运用已经带来和可能带来的社会风险,尤其是基于自动驾驶汽车和无人机等已经投入商业使用的人工智能体带来的现实风险,指出法律应对的必要性和迫切性。第二,指出现有法律系统应对人工智能问题的局限,从而建议专门的法律管控系统,包括专门的立法和执法机构。第三,对于使用广泛的无人机人工智能体,提出了开发者、制造者、所有者、操作者、维护者、检修者的登记制度,以此作为追究责任的前提,并讨论了受害人过错对责任的影响。我们认为,这种贯穿人工智能体运用全过程的扫描式研究值得提倡,也值得我国学界借鉴。事实上,我国的一些行政法学者已经开展了一些类似的讨论。当然,美国作为联邦制国家,各州行政管理及其法律系统立足于本州实际,彼此不尽相同,这就不可避免地带来了法律冲突,相比之下,我国作为单一制国家,自上而下的统一法制,对并不局限于地域的人工智能运用,可能更有利于管控。我国学界应在中国特色的法律结构框架下开展相应研究。

五、美国学者对人工智能刑事法律问题的研究

哈佛大学访问学者达夫尼·利马指出,人工智能的大规模运用可能带来法律的规制和刑法的干预,并影响刑法的解释和适用,也会引起对伤害、谴责(blame)等传统刑法概念的重新审视和反思。例如,人工智能的“行为”(act)是刑法意义上的行为吗?人工智能会发展出刑法上新的行为方式吗?“自主的身体活动”(voluntary bodily movement)的刑法行为概念会出现动摇、扩展或补充吗?人是否可能因为新的行为形式承担刑事责任?

与人工智能民事法律类似,该学者强调了人工智能承担刑事责任的前提亦为人的资格,并对此持否定态度,认为目前的人工智能不具有人格,因为人格意味着能够设定目标并去追求实现的能力,人工智能即便有这样的能力,也是人类程序员或使用者赋予的。当然,人工智能毕竟与法人和动物不同,它可以独立存在、无须干涉,并且具有理性。但目前刑法体系具有的道德性和伦理性以及刑罚都无法适用于人工智能。涉及人工智能的刑事责任问题只能进行以下分配:(1)人工智能作为工具体而不担责;(2)设计者或操作者因疏忽或轻率而承担责任;(3)雇主承担责任;(4)人类不担责的情形。总之,现行人工智能欠缺自我意识,不能适用刑法。对人工智能犯罪行为的过度反应,有可能削弱对刑法的认识,导致刑法对人类的伤害。

前面提到的“恩特”则引发了高级人工智能带来的刑法问题:“恩特”对其违法犯罪如何承担责任?“恩特”能否用自己的财产支付罚金?它可能拥有财产吗?能否因叛国罪被处以死刑?能否采取强制修正数据(类似软件补丁)的方式对“恩特”的行为加以矫正?能否以冻结的方式对其适用监禁?对“恩特”的监禁隔离能够达到改造(rehabilitation)或矫正的刑罚效果吗?

伊丽莎白·约教授讨论了个人安保机器人可能导致的伤害问题。目前的安保机器人尚无自我意志,相当于“弹簧枪”(spring gun)。那些设置了“弹簧枪”却没有设置警示的人,如果其行为造成了伤亡,应承担责任。但未来一旦安保机器人能够自主识别威胁,当遇到危险时它们能够使用武器甚至致命武器。对此,约强调了三个技术性问题。第一,机器人如何识别值得关注的威胁?第二,算法的透明性如何体现?第三,安保机器人自卫的程序如何设计?这些技术问题直接关系到善意与合理运用安保机器人,防止安保机器人被设计用来致人伤亡。显然,约束安保机器人设计者乃至研发制作安保机器人行业的准入,都是亟待解决的法律问题,之后也必然会产生追究这个领域的恶意和随意行为的刑事责任问题。

明尼苏达大学研究人员弗兰克·杜马等关注的问题是自动驾驶汽车涉及的刑事责任。自动驾驶的出现导致驾驶人角色被取代,刑事责任机制也将迎来改变。具体而言,会影响到四种犯罪:其一,严格责任的犯罪(包括超速、无保险证明、违章停车等);其二,需要意图的犯罪;其三,汽车控制人的犯罪;其四,替代责任的犯罪。此外,附带的问题还包括:如果自动驾驶汽车行驶过程中遇到突发情况而需要人来接管,但乘客是没有驾驶资格或者是醉酒的人,这些人能否接管?一旦这些人接管导致了恶果,该如何分配责任?没有父母陪伴搭载自动汽车上学的未成年人接管汽车或不当操作,应当由谁承担责任?警方能否强迫驾驶异常的自动驾驶汽车靠边停车?自动驾驶汽车所使用的信息能否用于刑事诉讼?自动驾驶汽车被黑客控制时,车上乘客是否有义务进行“有意义的操作”(operating in a meaningful way)?

斯坦福大学研究员伍德罗·哈托格对恶意利用“消费者的机器人”(robots for consumers)侵害消费者权益的情形进行了研讨。一方面,机器人可能被用来刺探或泄露消费者信息、欺骗消费者、诱导消费者做出某种消费。另一方面,由于机器人内部的算法及算法的价值和特权被遮盖起来,这些算法的设置是否公平便值得拷问。那么,现有责任规则还是否能被用于追究高级机器人的刑事责任?

可见,人工智能的开发和应用还存在诸多悬而未决的刑事法律问题有待研究。也就是说,美国学者对人工智能刑事法律问题的研究,提出的疑点多于答案。这些疑点表明,人工智能体承担刑事责任的最大障碍是刑事处罚所要求的道义上的可谴责性,这是解决人工智能体能否成为刑事责任主体的关键。需要指出的是,与人工智能行政法律问题的研究范围重在工具体意义不同,美国学者对人工智能刑事法律问题的研究同时关注了工具体与意识体两种角度。一方面,围绕安保机器人、自动驾驶汽车和消费机器人正在呈现出来的损害或危险进行刑事责任研究;另一方面,对“恩特”这样的高级人工智能体的“行为”的入罪和刑罚问题提出了设想。这反映出美国学界对人工智能可能给人类社会带来严重危害的深深忧虑。从目前科技发展的速度来看,人工智能日新月异,其智能水平正在获得惊人提升,且运用范围从围棋大师“阿尔法狗”(Alpha Go)的娱乐领域到中东地区发生的自动暗杀,表明人工智能体或许会逐渐摆脱人类控制且反噬人类。因此,如何用最具强制力的刑事法律控制和预防人工智能体涉及的严重危害人类社会的活动,是各国刑事法学者不可回避的严肃课题和不可推卸的重大责任。令人欣喜的是,我国刑法学界反应敏锐,同样从工具体(弱人工智能)与意识体(强人工智能)的不同角度展开讨论。研究角度的契合,也为中美两国人工智能刑事法律问题的交流提供了前提。

六、美国学者对人工智能军事法律问题的研究

弗吉尼亚大学法学院的阿什利·迪克斯、埃塞克斯大学的诺姆·卢贝尔和达加·穆雷几位学者共同探讨了高级人工智能体与国家使用武力之间的法律关系。他们指出,利用机器来考虑国家是否使用武力、何时使用武力、如何使用武力等重大决策,会带来三方面的风险:第一,自卫反应自动化会导致武力的使用脱离人类控制;第二,就使用武力做出的机器分析的质量和可靠性将引起人类与人工智能的对立;第三,算法会大大降低使用武力决策过程的可解释性和透明度。其中第二点尤其令人担忧:(1)算法能够完成预定任务吗?(2)供算法执行任务的数据能否保证质量?(3)如何将有争议的法律概念转换成二进制算法里的决策树?(4)利用算法意味着什么?是“做”决策还是“告知”决策?针对有学者建议保持“有意义的人类控制”,他们指出“有意义”的定义很多,如人类使用武力方面的性质、为人类武力操作员提供适当的资料、人类对武力系统的有效控制等。他们认为,从根本上看,与其说人工智能武器自主决定杀死一个人是法律问题,不如说是一个政策和伦理问题。然而,在理论分析的意义上,信任一个设计良好的算法,总好过将核按钮交给不理性的、难以预测的领导人。在算法“告知”决策的情况下,即便最终发动战争的决定是由人类做出的,人类的参与是否“有意义”也值得怀疑。至少可以说,当人类认可算法所告知的决策方案时,很难说决策是由人类做出的。另一方面,算法直接“做”决策应限于特殊情况和特定范围,只能用于自卫。如果需要由自卫转入反攻,应经过人类的政治和军事领导层考虑。

他们认为,人工智能的透明度和可解释性更多的是法律层面的问题。国家使用武力时,只要决策透明,即应具有合法性;然而,人工智能却是一个人们无法预知后果而难以保证合法性的系统。这涉及如何定义可预测性以及预测的内容。这里存在一个悖论:如果要求透明度,则要求算法公布每一个计算步骤,但人们未必能够理解这些计算步骤;如果仅要求这些步骤符合适当的法律框架,则无须透明度要求。对此的回答是,人工智能参与国家使用武力的合法性主要在于法律上的可靠度而非技术上的可预测性或透明度。不过,人工智能参与国家使用武力也存在很大技术风险——如果在被武装攻击之后难以准确地找到攻击的源头,则武力反击可能出现误认误击的情况。国家使用人工智能做出决策,便要承担错误使用武力的法律责任。

卡洛指出,有一些决策,特别是涉及蓄意夺取生命的决策,绝不能只交给机器做出。这种涉及使用武力的决定,也是关于自动武器发展和部署的争议要点。国际共识是永远不应放弃对杀戮决定进行“有意义的人类控制”。然而,什么是“有意义的人类控制”?是仅适用于进攻性战略和武器,还是也适用于防御?在不可避免的武器自动化趋势下,谁应对机器的选择负责?谁来承担战争的责任?当军事情报部门利用算法来选择远程遥控无人机袭击的目标时,实施攻击的士兵们要不要对此负责?这些问题都尚无答案。

可见,美国学者对人工智能军事法律问题的研究,主要是从国际法角度讨论了人工智能在军事决策中的作用及限制。具体而言,作为一种“算法”的人工智能可以在多大程度上参与决定使用武力,尤其是在核武器的语境下。学者们的一致意见是,人工智能参与军事行动的决策过程,应当限于自卫或者国家防御而不是进攻,而且应当采取特别审慎的态度。为此,美国学者提出了在军事领域运用人工智能涉及的一系列具体法律问题。显然,这会成为下一步研究的重点。我国学界也认识到人工智能的军事运用可能产生的法律风险——辨识错误或操作失控造成的人道主义灾难使战争法等法律面临挑战,争相开发和普遍使用导致的军备竞赛升级使国际军控规约大打折扣。但是,中美两国的此类研究主要停留在提出问题,缺乏成熟的解决方案。

结      语

通过以上对美国学者有关人工智能法律问题的研究并对比我国学界研究现状,不难看出,中美两国对人工智能法律问题的关注领域高度契合。究其原因有两个方面。一方面,美国学者先行一步,基于其先发的人工智能产业,率先触发了相关法律问题的关注,我国学界从其研究成果中得到了信息并受到启发,从而出现了相应的研究,例如,《算法与言论——美国的理论与实践》和《人工智能中的算法是言论吗?》两篇文章都以美国学者探讨的言论这一人工智能宪法问题为基础,前者是介绍性文章,后者是评述性文章。另一方面,虽然我国人工智能产业晚于美国,但毕竟已经起步,我国法律学者自改革开放以来逐渐具备全球化视野和前瞻性眼光,敏锐地捕捉到人工智能发展必然带来的风险和危害,自发地思考法律应对问题,而由于人工智能及其法律问题的共通性,两国学者在诸多问题上不谋而合。

应当承认,美国学者的研究话题更为广泛和具体。例如,美国学者讨论的人工智能法律问题涵盖立法、司法、执法和法律服务;人工智能身份识别系统与言论自由权利的关系;执法无人机与隐私权之关系引出的搜查令问题;人工智能主体地位是否意味着享有选举权与被选举权问题;人工智能有机复制体导致的继承关系;民事人格的要素构成;强人工智能体的经济财产权利和平等权利;人工智能设计的侵权与算法监督;人工智能涉及的民事代理关系;人工智能的监管根据及其机构问题;安保机器人带来的攻击和防卫问题;消费机器人涉及的欺骗问题;人工智能军事应用在国家自卫与进攻不同情况下的原则;错误使用武力的责任主体;等等。这些丰富的研究内容,将给我国学界带来更多有价值的启发。

此外,美国学者对人工智能法律问题探讨中呈现出来的逻辑推演和学术想象力令人印象深刻。人工智能作为一种正在兴起的高科技形态,在当前社会生活的运用中产生的危害毕竟有限,还不能为法律实证研究提供充分的大数据。即使是已经开发出来并投入使用的人工智能体,其许多副作用还处于“潜水”状态,而人类正在构思设计但尚未成为现实的人工智能体可能带来的危害,更是无从直接观察,这就不得不发挥人类的逻辑能力和丰富的想象力,进行超前研究,未雨绸缪。显然,美国学界多年从科技创新实践中积累的演绎能力也支配着法学领域的研究,往往将“科幻”式的自然和社会场景推向真实。这很值得习惯于法律注释学的我国学者借鉴。

新文科教育研究

投稿邮箱:

xwkjyyj@126.com;xwkjyyj@zuel.edu.cn


图片