查找:                      转第 显示法宝之窗 隐藏相关资料 下载下载 收藏收藏 打印打印 转发转发 小字 小字 大字 大字
【期刊名称】 《现代法学》
人工智能的刑法规制
【英文标题】 Regulation of Criminal Law for Artificial Intelligence
【作者】 彭文华
【作者单位】 上海政法学院刑事司法学院{院长,教授,法学博士}
【分类】 人工智能
【中文关键词】 人工智能;人工智能犯罪;智能代理;法律人格;可罚性
【英文关键词】 artificial intelligence; artificial intelligence crime; intelligent agent; legal personality; punishability
【文章编码】 1001-2397(2019)05-0135-17
【文献标识码】 ADOI:10.3969/j.issn.1001-2397.2019.05.10
【期刊年份】 2019年【期号】 5
【页码】 135
【摘要】

关于人工智能可否构成犯罪,国外主要存在“心理要素说”“智能代理说”“法人类比说”“法定实体说”以及“当然主体说”等观点。人工智能成为犯罪主体的哲理基础是科学实证主义和道德二元论,现实条件是具备法律人格。智能代理可以成为道德代理。人工智能的道德生成进路有“实在论进路”“关系论进路”“认识论进路”等之别,“实在论进路”相对合理。处罚人工智能既能为处罚其他主体奠定基础,也能达到剥夺其犯罪能力的目的,还能产生附加价值。我国的人工智能刑法研究尚处于初始阶段,未来研究的重点在于:人工智能对刑法人类中心主义的挑战,人工智能犯罪主体的范畴、责任范围与程度,刑法如何介入对人工智能的规制以及人工智能犯罪的刑罚适用。

【英文摘要】

Theories about whether artificial intelligence can constitute a crime, are mainly as follows: theory of psychological elements, intelligent agent theory, theory of comparison by legal human, legal entity theory and theory of the main body. The philosophical foundation of artificial intelligence as the subject of crime is scientific positivism and moral dualism, and its realistic condition is to have legal personality. Intelligent agents can become moral principles. The way of moral formation of AI is different from “realism approach”,“relationship theory approach” and “epistemology approach”,and “realism approach” is relatively reasonable. The punishment of AI can not only lay a foundation for punishments for other subjects, but also achieve the purpose of depriving them of criminal capacity, and can also generate additional value. The research on the criminal law of artificial intelligence in China is still in the initial stage. The focus of future research lies in the challenge of artificial intelligence to the anthropo-centrism of criminal law, the scope and extent of the subject of artificial intelligence crime; the intervention of the regulation to artificial intelligence in criminal law, and the application of the penalty of artificial intelligence crime.

【全文】法宝引证码CLI.A.1277311    
  
  

一、引言

“人工智能”一词是在1956年达特茅斯人工智能会议上首次提出的。数十年来,对于何谓人工智能可谓众说纷纭,并无权威定义。大多数人倾向于用“创造智能行为的计算机过程”,或者“创造一个能模仿人类行为的计算机过程”等,来定义人工智能{1}。通常,人工智能之“智能”主要包括运算智能、感知智能和认知智能[1]。根据智能发展水平不同,人工智能可分为弱人工智能、强人工智能和超人工智能[2]。目前,人工智能发展水平应当说处于由弱人工智能到强人工智能的过渡时期[3]。

人工智能会给人们工作、生活等带来巨大的便利,同时也可能造成危害。“虽然机器人在很多方面对社会有益,但它们也会导致或牵涉到各种各样的危害。”{2}75以自动驾驶车辆为例,虽然其安全性更佳,但亦可能造成事故。例如,2016年5月7日,美国海军退伍老兵约书亚·布朗在佛罗里达州驾驶一辆特拉斯自动驾驶汽车,不幸撞上一辆18轮的白色拖车而毙命{3}。司法实践中,人工智能造成危害的典型事例是机器人杀人。1981年,日本发生人类第一例机器人杀人事件,受害人是名37岁的工人{4}。此后,类似事件屡见不鲜。“在过去的30年里,仅在美国机器人就在工作场所杀死了至少26人。”{5}至于人工智能武器伤人事件更是触目惊心。“从2004年至2015年,美军无人机空袭估计造成超过三千人死亡,其中预定目标任务仅几十人。”{6}

可以预见,随着人工智能变得更先进和无处不在,其危害频率和程度也必然会随之攀升。在这样的背景下,如何运用法律规制人工智能,自然引起人们的关注。当然,刑法规制只有针对强人工智能才具有意义,弱人工智能只是人类的工具而已,不可能成为刑法的规制对象。由于现阶段尚未进入强人工智能时代,且与人工智能相关的法律规范基本处于空白状态,这也使得不少人对以刑法规制人工智能不以为然。他们认为,待进入到强人工智能时代再研究人工智能的罪与罚也不迟,现在研究缺乏现实基础。这种说法看似有道理,实则不然。无论是法律滞后还是个案匮乏,似乎都不应该成为学术研究的障碍。毕竟,政府在政策监管、法律规制等方面的反应,总是落后于工业进步、学术研究和不断增长的公共关注的。

二、国外有关人工智能构成犯罪的理论学说

传统刑法理论坚持刑法人类中心主义,认为“只有个人才能成为犯罪的可能的主体;而法人(moralische Person,如公司、大学或者学院等)决不可能成为犯罪的主体。”{7}根据刑法人类中心主义,人工智能和动物等一样,不具备犯罪资质,不能成为犯罪主体。因为,人工智能不是生命体,不具备人类的意志与理性,其与动物等一样是人类的工具,这便是机器工具主义。在机器工具主义看来,人工智能只是人类信息系统的延伸。“对待人与机器之间关系的更有效的方法是把机器看作是人类信息系统的延伸,而不是把计算机和人类视为两种不同的智能系统来相互交流。”{8}

不过,刑法人类中心主义与机器工具主义还是受到了挑战,许多学者认为人工智能可以构成犯罪,并提出了不同的理论学说。代表性的观点主要有:

(一)心理要素说

该学说认为机器人能够独立于人类指令犯罪,其形式可以和人类所犯之罪一样众多:从乱穿马路到谋杀{9}53。根据该理论,机器人具备心理要素,可以构成犯罪。因为,机器人能够自我调节并解决深奥问题,具有“智能”,因而具备心理状态。“为了判断一个机器人是否拥有心理状态,我们有必要尝试在‘智能’和‘愚蠢’之间划一条线,换句话说,什么是‘智能’?《韦氏国际词典》认为如果‘成功地解决问题,特别是新的或深奥的问题。’简单的计算机能够解决深奥问题,而具有自我调节能力的机器人也能够解决新问题。因此,所谓的机器人是‘智能的’。”{9}54

(二)道德代理说

根据该学说,行为人犯罪是因为他涉及道德过错,即行为人知道其所作所为在道德上是错误的。“法律假定犯罪人有所谓的‘道德代理’,道德代理需要具备两个条件:行为人能够理解他们行为的后果,并且他们有行动的选择。”{10}105机器可以明辨是非,做出道德决策。“编程一台机器使之尊重道德理论并将其应用到一个事实模式,是完全可能的,因此机器可以分辨是非,做出道德决策。”{10}106既然计算机程序可以做出道德决策,当然知道所实施的行为是非法的,因而智能代理可以成为道德代理。智能代理能成为道德代理,意味着人工智能可构成犯罪。

(三)法人类比说

该学说认为作为组织机构的法人和作为机械实体的人工智能没有实质差别,在承担刑事责任上并无实质性差异。“人工智能实体在人类活动中所占的份额越来越大,法人也一样。犯罪已经由人工智能实体或通过它们犯下。人工智能实体没有灵魂,有些人工智能实体既没有身体也没有灵魂。因此,法人与人工智能实体间的刑事责任理念没有实质性的法律差异。”{11}27既然法人可以构成犯罪,人工智能当然也能构成犯罪。事实上,让法人承担刑事责任的做法非常成功。“制定与刑事责任有关的法律解决方案,它们被视为能够达到刑事责任的所有要求,包括外部因素和内部因素。这些解决方案体现在刑事责任模式和一般刑罚调整的考量模式上。它奏效了。事实上,它仍然在工作,而且非常成功。”{11}27言外之意,让人工智能承担刑事责任也是可取的。

(四)法定实体说

该学说由乌克兰学者拉杜尼提出,认为刑法虽然没有明文规定人工智能可以构成犯罪,却规定了其他实体可以构成犯罪,人工智能应当包含于刑法规定的其他实体之中。这是因为,赋予人工智能“电子实体”地位不应在法律关系领域遇到反对和拒绝,而且这种开创是以公认的理论和实践为依据的,即基于对作为各种法律关系主体的法律实体的认可,以及适用于不同法定实体的各种法律措施(罚款、没收财产、清算)的可行性。《乌克兰刑法》第109条、第110条、第113条、第146条、第147条、第160条、第209条、第260条、第262条、第306条等的规定,就蕴含赋予某种法律实体几乎与犯罪人相同的责任地位{12}137-138。当然,人工智能不同于法人。“在物理上体现在机器人单元中的人工智能应该被认为是法律关系的主体,它也许是介于法律实体和个人之间的,是其与众不同的特征与相关情况相结合的产物。”{12}138

(五)当然主体说

该学说认为在人工智能可以实施犯罪的情况下,当然成为犯罪主体并可以适用刑法。“尽管人工智能与人类的智力和情感还没有达到同样的水平,但很可能有一天会达到——如同无数科幻小说都在试图警告我们的那样。如果这一天到来,情况可能会有很大不同,有关刑法及其应用可以直接针对人工智能代理人。在那一天,我们可以直接做好准备赋予人工智能当事人刑事责任,并认为它们同样有能力做出道德上的明智选择,并做出错误行为,我们甚至可以在立法和司法过程中邀请当事方分享对犯罪的看法。”{13}696在当然主体说看来,法人构成犯罪是因为其背后存在作为代理人的人类可以归责。“因为它们只不过是由人类代理人所组成的集体企业。在这种情况下,刑事责任诉求因法律无法‘揭开面纱’而被搁置,并将责任归咎于法人拟制背后的人……”{13}695不难看出,当然主体说并不认同法人类比说,因为人工智能不像法人那样背后存在人类代理人,因而不存在可以归责的人。因此,将人工智能类比法人没有必要,只要其实施犯罪便可对之直接归责。

心理要素说及智能代理说的不同在于,前者只从形式上强调人工智能也具备心理状态,而后者则从心理要素的实质,即自由意志和道德理性等角度,揭示人工智能在实质上具备犯罪心理要素。两者的问题在于,犯罪赖以成立的事实要件与心理要件,无疑是以传统犯罪理论中作为生物有机体的人类为出发点和归宿的,而人工智能作为机械实体,完全不同于人类,将适用于人类的概念适用于人工智能,似乎并非理所当然。“如果要用为人类设计的法律工具来处理,我们必须确立要么人工智能是足够人性化的,然而并非如此,要么现行法律工具也适合于非人类,然而就犯罪心理和谴责而言至少存在争议,毕竟整个概念反映了我们对人的意义的集体体验。”{13}695-696

法人类比说强调人工智能可以类比法人并构成犯罪,这在逻辑上似乎说得通。问题在于,诸如电子代理人等人工智能不同于经典的法人(如基金会、公司),因为它们不需要自然人在法律关系中作为代表,而法人总是需要一个代表它的自然人,能够以其名义作出免责声明{14}。既然人工智能可以不依靠人类而独立活动,而法人仍然需要依赖人类活动,这表明两者在行为方式上存在差异。而且,法人属于组织机构,人工智能属于机械实体,两者在物理属性上也存在实质不同。如果简单进行类比,可能有类推之嫌。

法定实体说的问题在于,在承认人工智能不同于自然人和法人的前提下,认为法律规定的其他实体当然包含人工智能等在内,属于无法律依据的一厢情愿,具有类推解释之嫌。即使自然人以外的其他实体满足犯罪成立条件,认定构成犯罪也需要于法有据,不能仅凭推导。否则,在解释上肆意扩张既不合理亦不合法。

当然主体说则过于概括。无论人工智能是否完全具备人的意识、道德与理性,哪怕是远超人类智能的超人工智能,毕竟其属于机械实体,要想构成犯罪在不同法系国家有不同路径。例如,对于成文法系国家而言,受罪刑法定原则约束,只有刑法明确后人工智能才能成为犯罪主体。对于不成文法系国家来说,只要存在将刑事责任模式适用于人工智能的判例,则人工智能就能成为犯罪主体。“实用主义法律制度,如美国法律制度,可以将他们的刑事责任模式适用于机器人的行为,就像他们把非人类的、法人的‘行为’纳入他们的刑法体系一样。”{15}415这样看来,当然主体说在英美法系国家可行,但大陆法系国家则不被允许,否则违背罪刑法定原则。

不难发现,心理要素说、道德代理说是立足于人工智能是否具备归责的心理或道德基础,来认定人工智能可否构成犯罪的。至于法定实体说和当然主体说,已经不再囿于人工智能是否具备归责的心理或道德基础,而是探究如何确立人工智能的适格主体地位。如果说心理要素说、智能代理说只是解决了人工智能是否具备犯罪资质问题,那么法定实体说、当然主体说则是在肯定人工智能具备犯罪资质的基础上,探究其如何获得犯罪资质。相对而言,前者是个理论问题,而后者则属于法律问题。

无论上述理论观点本身如何,探讨人工智能的犯罪资质无疑是与时俱进的。近年来,新一代互联网在全球范围的推广应用,使以人与人链接为特征的互联网,转变为人与人、人与物、物与物链接三位一体的物联网,大数据呈现井喷式涌现态势。量子计算机的横空出世,使得人类拥有的计算能力正处在指数级增长的前夜。凡此种种,使得人工智能已经具备无监督自主学习能力,又获得云计算和大数据的强力支撑,而不断取得的突破性进展,人工智能整体智能水平越来越接近人类。可以说,肯定人工智能具备犯罪资质是一种趋势,这从以往否定人工智能犯罪的刑法学者之态度发生动摇可见一斑。如德国学者魏根特、瑞士学者格雷斯在2014年发表的一篇论文{16}中反对人工智能成为刑罚主体,但在2016年发表的一篇论文章中却承认未来智能代理可以变成道德代理,并认为彼时需要重新考虑人工智能的人格及犯罪主体地位。“可以肯定的是,这些陈述是指我们在2016中知道的智能代理。然而,回顾近几十年来计算机科学所发生的迅速变化,未来的智能代理获得更像人类的素质和能力并非不可能。如果它们获得反省和类似于道德良知的能力,他们的人格问题就不得不重新考虑了。”{15}417他们还指出,洛克和康德等古典哲学家们以人的自我反思能力为基础确立的人格方法,并没有考虑当代人工智能{15}416。

与此同时,基于对人工智能犯罪研究的重视,机器人刑法或者人工智能刑法呼之欲出。例如,德国学者希尔根多夫就是机器人刑法的倡导者,以色列小野学院法学院教授哈利维则对人工智能刑法进行了较为系统的研究。哈利维在《当机器人杀人时:刑法中的人工智能》一书中,对人工智能的刑事责任、刑事责任的类型、严格责任、量刑等诸多问题进行了全面分析和探讨{17}。此外,人工智能的刑法立法问题也逐渐引起人们关注。“随着自动驾驶技术的进步,联邦和州的监管机构应该修改刑法,以使自动驾驶车辆顺利进入市场。”{18}可以预见,未来有关人工智能犯罪的理论与立法会逐渐成为新热点。

三、人工智能成为犯罪主体的哲理基础与现实条件

(一)人工智能成为犯罪主体的哲理基础

众所周知,人之所以能够成为犯罪主体,是以唯心主义哲学的自由意志论及理性主义等为哲理基础的。那么,人工智能成为犯罪主体的哲理基础是什么?对此,学界认为主要有二:科学实证主义与道德二元论。

1.科学实证主义

人工智能会给人类带来巨大的技术红利,也可能对社会造成严重危害。那么,应当由谁来对人工智能的违法犯罪负责呢?有学者认为,应当让社会和公众自行承担人工智能犯罪的风险。“假如我们不想因为最终无法控制的风险而全面禁止智能代理,那么就别无他途,只能让‘社会’来承担那些不能通过编程和负责任的使用而可掌控的风险,亦即放弃追究过失的刑事责任,而将蒙受损失的人视为非人类行为的受害者……让公众接受它们带来的风险,停止刑法的干预。”{16}239风险自负论的问题在于,根据既往的立法经验,让完全无过错的被害人对人工智能造成的风险承担责任,是无法让人接受的。同样,对于制造商、程序员等而言,由于存在难以归责的情形,让他们无条件承担刑事责任也不可取。于是,以现象归纳和实证分析为基础的科学实证主义应运而生。

科学实证主义将犯罪主体归结为现象研究,以现象论观点为出发点,拒绝通过唯心主义哲学的理性主义把握感觉材料。在科学实证主义看来,人工智能是否成为犯罪主体,不能仅根据理性等决定,通过对现象的归纳同样可以得到科学定律。哈利维就指出,作为先进科技的“副产品”(by - product),人工智能造成的损害和危险是客观存在的。“无论是工业上还是私人上使用这项技术,都将扩大人工智能机器人所承担的任务范围。任务越先进、越复杂,任务的失败风险就越大……最常见的情况是机器人承担的任务没有成功完成。但是一些失败的情况会对个人和社会造成损害和危险。”{17}17-18他认为,利用刑法来应对人工智能是有效的。“刑法被认为是指导任何一个社会个体行为的最有效的社会手段。它远非完美,但在现代环境下,这是最有效的措施。因为它对于人类个体来说是有效的,那么有必要检查它是否对非人类实体,尤其是人工智能实体有效。”{17}19

立足于科学实证主义,利用刑法规制人工智能将会大大减少人们对人工智能犯罪的恐惧,其现实意义值得肯定。在这方面,法人成为犯罪主体就是很好的例证。在法人面世以后,人类也曾面对法人违法犯罪的危害而不知所措,因为法人不被法律特别是刑法所规制,而将法人作为犯罪主体又违背刑法人类中心主义。不过,在法人被确定为犯罪主体后,人们对法人犯罪的恐惧大为减少。“在过去,人们同样害怕法人和它们大规模实施犯罪的力量,但自从法人成为刑法以及公司法上的法律实体后,这种恐惧已经显著减少。”{12}7经验表明,如果人工智能实体不受法律特别是刑法规制,那么在许多数情况下将会不可避免地引起人们对人工智能实体的恐惧。要想消除人们对人工智能犯罪的恐惧,将人工智能纳入刑法规制之列无疑是有效途径之一。

2.道德二元论

传统犯罪理论以唯心主义哲学为哲理基础,认为人之所以能成为犯罪主体,是由其理性和自由意志决定的。康德曾指出:“就吾人全体状态以考虑可欲求者为何(即关于考虑何者为善为有益)之等等考虑,则根据理性。”{19}理性驱使人类不会像动物那样基于本能而为,而是必须权衡利弊得失。犯罪属于非理性表现,故只有人才能实施犯罪。当然,理性是以自由意志为前提的,并藉此奠定归责的基础。自由意志和理性为处罚提供了道德支撑,使处罚合乎公平与正义。根据传统刑法理论,作为机械实物的人工智能不可能具有道德理性,因而难以归责。

道德二元论则认为,道德有道义论道德和目的论道德之别,前者集中在意志和行为,后者集中在结果。“道德责任确实是一个非常复杂的问题,不仅对机器,而且对人类也是如此。一般来说,道德没有一个共同的定义是所有社会都可以接受的。道义论的道德(集中在意志和行为)和目的论的道德(集中在结果)是最可接受的类型,并在许多情况下它们会导出相反的行为。”{17}18据此,人在自由意志的支配下实施了犯罪行为,并需要对此承担刑事责任,是道义论道德的要求。但是,如果结果是有害的,那么根据目的论道德也可以要求其承担刑事责任。对于人工智能而言,无论是立足于由道义论道德还是立足于目的论道德,要求其对自己实施的犯罪承担刑事责任都是合乎理性的。

根据道义论,高度智能的计算机程序,为人工智能的道德理性提供了科学基础。神经生物学的研究表明,人类的道德理性是受大脑掌控的。“在受意志掌控并被感知为自由的行为做出之前,大脑已经提前运作了。这个结论在部分程度上可解释如下,不是‘我们自己’,而是‘我们的大脑’(在我们尚未觉察的时候)就做出了决定。”{20}换句话说,“我们的自由意志”实质上是“我们大脑的自由意志”。人工智能同样有自己的“大脑”——计算机程序,这是其拥有道德理性的源泉。计算机程序系统能够使人工智能模仿人类思维进行决策。例如,2015年诞生于美国的世界上第一位人工智能律师罗斯(ROSS)就具有高效的搜索、推理、判断以及解决问题的能力{21}。许多人工智能武器更是融感知、分析、推理、判断及思维于一体的作战平台,能自主完成战争任务。

那么,人工智能的道德是如何生成的呢?对此,学者们认识不一。“实在论进路”认为,遵循程序指令的计算机、火箭制导系统、遵循烹饪食谱的初级厨师以及遵守交通法规的司机,它们行为时都相当于一个道德主体,遵循着基于道德控制的规则导向体系{22}。“关系论进路”认为,人工智能的道德伦理是在人类如何与机器人互动中形成的。“从具体经验和实践出发,对个人和文化差异有足够的敏感度,这种方法让我们关注人类美德是如何出现在人与机器人的互动中,并想象与个性机器人一起生活的可能性,这些机器人有助于形成良好的人类生活。”{23}“认识论进路”则认为,“作为一种哲学伦理,需要探索不同的调查对象以及它们之间的关系。为了顾及‘本体论’或‘认识论’的多元化、整体性、社会性和关系性,达到现象学—诠释学的感受性的适当水平,必须延缓对机器人道德直接的规范性论证。”{24}根据该观点,机器人领域的特定道德有赖于更丰富的分析,此前对机器人的道德挑战应暂且视而不见。从道德多元化与人工智能的独立性与自主性来看,“实在论进路”更具说服力。当然,不管何种生成路径,其结论都是一致的,即人工智能具备道德。

尽管人工智能具有道德理性,但并非所有的智能代理都能成为道德代理。通常,人工智能的道德代理分为三种:一是操作性道德代理,即其能力(自主性和伦理敏感性)仍然完全在工具设计者和用户的控制范围之内的代理;二是功能性道德代理,即自身具有评估和应对道德挑战的能力的代理;三是完全道德代理,即具备人类那样的完整、全面的道德代理{25}38-39。由于功能性自治可以实现理性自治,因而具备功能性道德代理的智能代理可以成为道德代理。功能性道德代理中的理性自治并非完全由外部因素决定,而是可以由人工系统在没有外部刺激的情况下通过改变内部状态决定{25}39。

通常,人工智能的理性自治源自两个方面:一是基于学习算法而获得理性自治。人工智能学习时,基于所提供训练数据,并通过学习算法从中推理、论证并生成一组新的规则。人工智能所具备的无监督自主学习能力,更是可以自行学习并生成新的规则。根据学习算法生成新的规则并做出的决断,体现的是人工智能的理性自治,产生类似于人类那样的自主意识和思维,程序员对此难以预料和控制,也无需承担责任。“如果程序员不可能预见致命的自主机器人重写它的程序,如果该事实发生了,这些程序员将被免除责任。”{26}二是基于最佳决策法则而理性自治。人工智能的海量信息、超强的运算速度和技能等,可以使之在极短的时间内做出最佳决断,这是人类无法做到的。“当软件与外界交互时,它会寻求哪一种行动会产生最有成效的结果。然后,它将最有成效的行动付诸于未来的行动中。”{27}最佳决策体现人工智能的理性自治,并使得人工智能系统可以在众多领域(如医疗领域)发挥着人类无法企及的作用,人类对此难以预知。但是,其弊端也是明显的,即人工智能基于最佳决策可能会实施违法犯罪,人类根本无法掌控。例如,当人类违规操作时,若智能机器人瞬间筛选的最佳方案是排除个人干扰,就有可能杀死违规操作的人,这也是许多机器人杀人的真正原因。

立足于完全道德代理,即以正常成人的道德为标准,是认为智能代理不能成为道德代理的重要原因之一。这种观点看似有道理,实质上经不起推敲。人类的道德理性具有复杂性、多样性特征,缺乏统一的判断标准,如成年人与未成年人、精神状态正常的人与精神状态不正常的人,道德理性就不一样。即使是正常成年人的道德理性,也复杂多样。一个阅历丰富、聪明睿智的人与一个阅历单一、封闭偏执的人,虽然均具有完全的道德理性,却是有所区别的。这表明完全道德代理是个抽象概念,并不容易操作。此外,刑事归责从来就不需要责任主体必须具备正常成人的道德理性,否则就无法解释限制刑事责任能力人因何可以成为刑法归责的对象。因此,不应以人工智能不具备虚拟的、具有理想色彩的完全道德代理能力,否定智能代理可以成为道德代理。

(二)人工智能成为犯罪主体的现实条件

人工智能成为犯罪主体的基本条件是具备法律人格。理论上,对于人工智能是否具有法律人格,存在三种不同看法:肯定说、否定说和折中说。

肯定说认为,赋予人工智能法律人格有其可取之处。一方面,“授予自治机器法律人格,以满足受其伤害的第三者需要,同时还可避免连带责任引发的一些问题”{28}343;另一方面,通过对代表其人类主人的机器人对其所参与的交易赋予责任,使得赋予机器人法律人格也可以促进商业发展{29}。否定说认为,不应赋予人工智能法律人格。因为,它们不是人类,缺乏人格的一些关键成分,如灵魂、意识、意向性、情感或自由意志等,作为人类的产物永远不应该上升到和我们一样的法律地位{30}1258-1279。折中说认为,如果人工智能具有与人相匹配的特征,就应当赋予其法律人格。“在某种程度上,一个实体如果与具备人的所有特征的实体的相关特征匹配——例如,胜任人的成人——该实体应该被赋予人格保护,因为别无选择……”{31}

究竟哪种观点更具有说服力呢?这里关系到法律人格及其判断标准等问题。早先的法律人格判断,采取的是以主体自然属性或身份等为据的形式标准。随着社会的发展,法律人格的判断逐渐演变成以法律权利和义务之资格为依据的实质标准。“赋予法律人格是授予实体一系列权利和伴随义务的决定。权利和义务的性质和代理人的能力促成这种决定,而不是实体的组成、内部构造或实体的其他不可表达的属性。”{32}相应地,法律上的“人”的含义也发生深刻变化。哈佛大学法学院格雷教授有段著名论述:“与其他书籍一样,在法律书籍以及普通语言中,‘人’通常被用来指人,但‘人’的专业的法律含义是法律权利和义务的主体。”{33}以法律权利和义务这一实质标准来判断可否赋予法律人格,无疑便于操作和解决问题。“可以说,法律人格和法人是为简化法律计算而设计的数学创造物。”{34}

根据实质标准,除人类外包括法人、人工智能等在内的其他实体因为能够被赋予权利和义务,因而也可以具备法律人格。事实上,正因法律人格的实质标准有利于解决现实问题,即使持否定说的学者在该问题上也并非笃定的,在他们看来不赋予人工智能法律人格

  ······

法宝用户,请登录后查看全部内容。
还不是用户?点击单篇购买;单位用户可在线填写“申请试用表”申请试用或直接致电400-810-8266成为法宝付费用户。
【注释】                                                                                                     
【参考文献】

{1} Faye Mitchell. The Use of Artificial Intelligence in Digital Forensics: An Introduction[J]. Digital Evidence & Electronic Signature Law Review, 2010,7(1):35-41.

{2} Trevor N. White, Seth D. Baum. Liability for Present and Future Robotics Technology, in Patrick Lin, Ryan Jenkins and Keith Abney, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence[M]. New York : Oxford University Press, 2017.

{3} Jesse Krompier. Safety First: The Case for Mandatory Data Sharing as a Federal Safety Standard for Self-Driving Cars [J]. University of Illinois Journal of Law, Technology & Policy, 2017(2):439-468.

{4} Yueh - HsuanWeng, Chien - Hsun Chen, Chuen - Tsai Sun. Toward the Human - Robot Co - Existence Society: On Safety Intelligence for Next Generation Robots[J]. International Journal of Social Robotics, 2009,1(4):267-282.

{5} S. M. Solai man. Corporate Manslaughter by Industrial Robots at Work: Who Should Go on Trial under the Principle of Common Law in Australia[J]. Journal of Law And Commerce, 2016,35(1):21-54.

{6}刚桂虎.军用无人机成长三部曲[N].解放军报,2017-03-31(09).

{7}安塞尔姆·里特尔·冯·费尔巴哈.德国刑法教科书[M].徐久生,译.北京:中国方正出版社,2010:37.

{8} J. C. Smith. Machine Intelligence and Legal Reasoning[J]. Chicago - Kent Law Review, 1998,73(1):277-349.

{9} Raymond S. August. Turning the Computer into a Criminal[J]. Barrister, 1983,10(4).{10}Jerry Kaplan. Artificial Intelligence[M]. Oxford: Oxford University Press, 2016.

{11} Gabriel Hallevy. Virtual Criminal Responsibility[J]. Original Law Review, 2010,6(1).

{12} O. E. Radutniy. Criminal Liability of the Artificial Intelligence[J]. Problems of Legality, 2017.

{13} Dafni Lima. Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law [J]. South Carolina Law Review, 2018,69(3).

{14} Daniel Eszteri. Liability for Operation and Damages Caused by Artificial Intelligence - With a Short Outlook to Online Games[J]. Studia Iuridica Auctoritate Universitatis Pecs Publicata, 2015,153:57-74.

{15} Sabine Gless, Emily Silverman, Thomas Weigend. If Robots Cause Harm, Who Is to Blame: Self - Driving Carsand Criminal Liability[J]. New Criminal Law Review, 2016,19(3).

{16}萨比娜·格雷斯,托马斯·魏根特.智能代理与刑法[G]∥陈泽宪.刑事法前沿:第10卷.赵阳,译.北京:社会科学文献出版社,2017:215.

{17} Gabriel Hallevy. When Robots Kill: Artificial Intelligence under Criminal Law[M]. Boston: Northeastern University Press, 2013.

{18} Jeffrey K. Gurney. Driving into the Unknown: Examining the Crossroads of Criminal Law and Autonomous Vehicles [J]. Wake Forest Journal of Law & Policy, 2015,5(2):442.

{19}康德.纯粹理性批判[M].蓝公武,译.北京:商务印书馆,2007:366.

{20}希尔根多夫.德国刑法学:从传统到现代[M].江溯,等,译.北京:北京大学出版社,2015:159.

{21} Catherine Nunez. Artificial Intelligence and Legal Ethics: Whether AI Lawyers Can Make Ethical Decisions[J]. Tulane Journal of Technology and Intellectual Property, 2017,20:204.

{22} Andreas Matthias. Algorithmic Moral Control of War Robots: Philosophical Questions[J]. Law, Innovation and Technology, 2011,3(2):297.

{23} Mark Coeckelbergh. Personal Robots, Appearance, and Human Good: A Methodological Reflection on Roboethics[J]. International Journal of Social Robotics, 2009,1(3):217.

{24} Mark Coeckelbergh. Is Ethics of Robotics about Robots Philosophy of Robotics beyond Realism and Individualism[J]. Law, Innovation and Technology, 2011,3(2):250.

{25} Trevor N. White and Seth D. Baum. Autonomy and Responsibility in Hybrid Systems: The Example of Autonomous Car, in Patrick Lin, Ryan Jenkins and Keith Abney, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence[M]. New York: Oxford University Press, 2017.

{26} Tetyana Krupiy. Of Souls, Spirits and Ghosts: Transposing the Application of the Rules of Targeting to Lethal Autonomous Robots[J]. Melbourne Journal of International Law, 2015,16(1):201.

{27} Weston Kowert. The Foreseeability of Human – Artificial Intelligence Interactions[J]. Texas Law Review, 2017,96(1):183.

{28} Mark A. Chinen. The Co - Evolution of Autonomous Machines and Legal Responsibility[J]. Virginia Journal of Law & Technology, 2016,20(2).

{29} Ugo Pagallo. Killers, Fridges, and Slaves: A Legal Journey in Robotics[J]. AI & Society, 2011,26(4):352.

{30} Lawrence B. Solum. Legal Personhood for Artificial Intelligences[J]. North Carolina Law Review, 1992,70(4).

{31} Jessica Berg. Of Elephants and Embryos: A Proposed Framework for Legal Personhood[J]. Hastings Law Journal, 2007-2008,59(2):386.

{32} Samir Chopra & Laurence F. White. A Legal Theory For Autonomous Artificial Agents[M]. Ann Arbor: University of Michigan Press, 2011:155.

{33} John Chipman Gray. The Nature and Sources of the Law[M]. New York: Columbia University Press, 1909:27.

{34} F. H. Lawson. The Creative Use of Legal Concepts[J]. New York University Law Review, 1957,32(5):915.

{35} Aiden Warren, Alek Hillas. Lethal Autonomous Weapons Systems: Adapting to the Future Unmanned Warfare and Unaccountable Robots[J]. Yale Journal of International Affairs, 2017,12:75.

{36} Clint W. Westbrook. The Google Made Me Do It: The Complexity of Criminal Liability in the Age of Autonomous Vehicles[J]. Michigan State Law Review, 2017,2017(1):124.

{37}腾讯研究院.人工智能各国战略解读:联合国人工智能政策报告[J].电信网技术,2017(2):27.

{38}郑戈.人工智能与法律的未来[J].探索与争鸣,2017(10):78-84.

{39} Ignatius Michael Ingles. Regulating Religious Robots: Free Exercise and RFRA in the Time of Superintelligent Artificial Intelligence[J]. Georgetown Law Journal, 2017,105(2).

{40} Daniel Ben - Ari et al. Artificial Intelligence in the Practice of Law: An Analysis and Proof of Concept Experiment[J]. Richmond Journal of Law & Technology, 2017,23(2):29.

{41} Toby Walsh. It’s Alive! Artificial Intelligence from the Logic Piano to Killer Robots[M]. Carlton: La Trobe University Press, 2017:137.

{42} Rachel Charney. Can Androids Plead Automatism——A Review of When Robots Kill: Artificial Intelligenceunder the Criminal Law by Gabriel Hallevy[J]. University of Toronto Faculty of Law Review, 2015,73(1).

{43} Joseph F. Francis. Criminal Responsibility of the Corporation[J]. Illnois Law Review, 1923-1924,18(5):312.{44}Richard Yonck. Heart of the Machine : Our Future in A World of Artificial Emotional Intelligence[M]. New York: Arcade Publishing, 2017.

{45} Calum Chace. Surviving AI: The Promise and Peril of Artificial Intelligence[M]. London: Three Cs, 2015.

{46} Peter AJ Van der Made. How To Create A Functional Artificial Brain: Higher Intelligence[M]. Fremantle: Vivid Publishing, 2013:147.

{47} Lawrence Lessig. The Law of the Horse: What Cyber Law Might Teach[J]. Harvard Law Review, 1999,113(2):507 -508.

{48} Mary Kreiner Ramirez. The Science Fiction of Corporate Criminal Liability: Containing the Machine through the Corporate Death Penalty[J]. Arizona Law Review, 2005,47(4):949.

{49}马治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报,2018(2):108-115.

{50}袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.

{51}司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学,2017(5):166-173.

{52}詹可.人工智能法律人格问题研究[J].信息安全研究,2018(3):224-232.

{53}刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018(1):40-47.

{54}刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(1):3-11.

{55}夏天.基于人工智能的军事智能武器犯罪问题初论[J].犯罪研究,2017(6):9-20.

{56}王肃之.人工智能犯罪的理论与立法问题初探[J].大连理工大学学报(社会科学版),2018(4):53-63.

{57}刘宪权.人工智能时代刑事责任与刑罚体系的重构[J].政治与法律,2018(3):97.

{58}刘宪权,朱彦.人工智能时代对传统刑法理论的挑战[J].上海政法学院学报(法治论丛),2018(2).

{59}James Barrat. Our Final Invention: Artificial Intelligence and the End of the Human Era[M]. New York: St. Martin’ s Press, 2013:231.

{60} H. Ashrafian, O. Clancy, V. Grover, A. Darzi. The Evolution of Robotic Surgery: Surgical and Anaesthetic Aspects [J]. British Journal of Anaesthesia, 2017,119(1):72-84.

{61} Brendan Gogarty, Meredith Hagger. The Laws of Man over Vehicles Unmanned: The Legal Response to Robotic Revolution on Sea, Land and Air[J]. Journal of Law, Information and Science, 2008,19:73-146.

{62} Jeffrey R. Zohn. When Robots Attack: How Should the Law Handle Self - Driving Cars That Cause Damages[J]. University of Illinois Journal of Law, Technology & Policy, 2015,2015(2):461-486.

©北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果?    法宝V5有何新特色?
扫码阅读
本篇【法宝引证码CLI.A.1277311      关注法宝动态:  

法宝联想
【相似文献】
【作者其他文献】

热门视频更多