查找:                      转第 显示法宝之窗 隐藏相关资料 下载下载 收藏收藏 打印打印 转发转发 小字 小字 大字 大字
【期刊名称】 《法学论坛》
人工智能风险规制的困境与出路
【英文标题】 Difficulties and outlets on AI Risk Regulation
【作者】 郭传凯
【作者单位】 山东大学法学院{助理研究员}博士后流动站{研究人员}
【分类】 人工智能【中文关键词】 人工智能;风险;规制困境;实验型规制
【英文关键词】 artificial intelligence; risk; regulation difficulties; experimental regulation
【文章编码】 1009-8003(2019)06-0107-11【文献标识码】 A
【期刊年份】 2019年【期号】 6
【页码】 107
【摘要】

在人工智能飞速发展及其对人类社会影响不断深化的背景下,人工智能的风险规制成为需要解决的重要问题。人工智能及其研究开发的主要特征决定了相应风险具有不可知性、多样性、变动性等属性。传统规制的僵化与失灵无法因应人工智能的前述属性,从而陷入规制困境。而实验型规制不仅可以回应风险规制的多重困境,亦能最大限度地保障人工智能的自由发展,因此是人工智能风险规制的可行出路。

【英文摘要】

Artificial intelligence risk is potential possibility about negative consequence on health, security and living environmentcaused by new technology or brand new products, which can replace the traditional relevant products. In order to regulate it, theproblems on information insufficiency and regulation resistance should be solved. Beforehand preventing mode and compensationmode of traditional risk regulation cannot deal with these problems so that the experimental mode would play an important role inemerging risk regulation.

【全文】法宝引证码CLI.A.1281882    
  
  

引言

人工智能通过完成高难度任务不断加深着对人类社会的影响:无人驾驶已经在美国四个州获得上路批准,未来很可能引发道路交通运输的革命;人脸识别系统在反恐等领域发挥着重要作用;电脑程序击败了世界最强围棋运动员;谷歌研发的翻译系统则可以独自翻译报纸上的长篇文章。[1]与此同时,人工智能的商业前景激发了大型企业投资与开发的热情,谷歌、脸书、亚马逊等公司通过资助研发、设立试验机构、收购新兴企业的方式开展人工智能竞赛。人工智能飞速发展之势已不可阻挡。

然而,技术进步引发恐慌情绪和监管预警[2]并不是人类社会的新鲜现象。[3]尽管有些人工智能风险与以往技术创新引发的风险相类似,但更多体现人工智能独特性的新兴风险及相应法律问题将在未来接踵而至。如果放任人工智能在监管真空的状态下快速发展,风险发生的可能性及危害性很可能伴随时间的推移呈现指数式的增长。[4]另一方面,风险规制是否阻碍技术创新成为相伴而生理论与实务难题,短期视野下采取的规制措施很可能损害技术创新带来的长远效益。人工智能风险的独特性与现行规制的局限性导致风险规制始终处于紧张的矛盾状态之下,认真对待人工智能的风险规制势在必行。

一、人工智能风险规制的现实需求

理解人工智能是进行风险规制的第一步,[5]人工智能复杂性、灵活性的特点致使其无法形成统一的概念界定。[6]第一个使用人工智能概念的计算机科学家麦卡锡将人工智能界定为“有关智能机器特别是智能电脑程序的科学技术与工程系统”,[7]其可以通过自身行动实现复杂的目标。作为偏正短语,“人工智能”的核心部分在于“智能”二字,如何界定“智能”对解读人工智能而言意义重大。依照学界通说,“人类智能”主要关涉具备知觉、存在自我意识、可以使用语言、掌握抽象思维、能够调整适应环境以及进行复杂推理等要素。[8]因此有学者参照“智能”的概念将人工智能分为人性化思考、人性化行动、理性思考和理性行动等四种类型,并最终认为人工智能是自动运行、能感知周围环境、可在一段时间内持续存在的、具有适应能力,并创造和追求最佳结果的机器或者程序。[9]

通过比较,不难发现理性行为特别是追求最优结果的能力是被广泛认同的人工智能关键属性,其决定了人工智能的两大特征:其一,人工智能的行为后果具备较弱的可预见性。尽管人工智能的理性能力在一定程度上可以通过初始程序进行控制,但其自主完成复杂任务的过程亦容易导致人类难以预见的后果。其二,人工智能具有较弱的可控性。人工智能可控性上的局限并不是由于机器故障或人工智能对人类指令理解能力的不足,而是源自其对设计者主观意图的隔离与漠视。特别当人工智能认定的最优结果与人类社会期待的最优结果发生偏差的时候,人工智能的可控性成为需要解决的重要难题。[10]此外,人工智能在研发上的独特性与其理性行为能力密切相关:(1)集约化。相较于新能源技术、航天科技等领域,人工智能并不需要大规模的机构设施即可开展研发工作。[11](2)分散化。在人工智能领域,不同的机构组织,不同的私人企业往往进行分散化的研究。相同的人工智能技术亦可以在不同行业不同领域进行分散化的运用。(3)非连续性。特定技术的开发者不能预见该技术的后继者将如何使用该技术进行进一步研发。[12]某一阶段的技术开发者往往无法长远预见该技术发展的未来走势。(4)不透明性。人工智能技术开发往往是多种现有技术的复杂组合,这使人工智能很难采用反向还原工程进行拆解分析。这导致人工智能开发中的缺陷不仅对消费者而言是不可测度的,对下游生产商和分销商而言亦是难以检测的。

人工智能的上述特征从根本上决定了风险规制的现实需求。在风险规制的视野下,一些具备理性能力的人工智能(如象棋软件)暂时不具备引发公共风险的可能性,而一些机器学习系统尽管不具备理性行为能力,但却可能引发相关风险,进而也可被纳入到人工智能的规制范畴中来。[13]由此可见,规制视野下的人工智能是一个谱系化的概念,其包括并不具备目标追求能力但却可以完成复杂任务的机器系统或软件(即不严格的人工智能),[14]以及符合理性标准具备目标追求能力的人工智能,甚至还包括目前尚未出现但却被学界普遍关注的强人工智能(Artificial General Intelligence,也可译作人工普遍智能)。所谓强人工智能,是指具备相当程度的自我理解和自我控制能力,可在多变复杂的环境下解决不同的复杂问题,并能够学习掌握解决新问题的相关技能与知识的实体。[15]关注强人工智能对人工智能的风险规制具备警示意义:强人工智能已经给人类社会造成较深层次的担忧,[16]原因在于人工智能的发展具备蛰伏期较长与指数级增长相结合的特点,[17]其一旦结束蛰伏期而达至特定的临界点,随即将开启指数级增长的阶段,人类很可能面临被强人工智能驯服的风险。因此,对人工智能规制而言,真正的问题是目前人工智能已经发展至何种阶段,以及距离前述的临界点还有多远。法律的规制应当指引人工智能的发展,风险预防理念下的防控型规制应当成为主流的规制策略。

截至目前,人工智能的应用已经造成了一些难以应对的风险。(1)人工智能歧视。大数据与人工智能技术的结合使复杂问题的分析往往伴随着种族主义和性别歧视等倾向。[18]且人工智能技术使歧视往往难以察觉,如不及时克服则极易固化为数据算法的内在逻辑。例如在法律实施的人工智能程序中,黑人被误判犯罪的概率已然高于其他人种。[19]歧视问题在数据算法设计之时就应当被尽量排除。(2)安全风险。自动驾驶等智能技术可以通过减少人为失误的方式提高出行安全,但软件缺陷等原因亦可造成新的安全风险。在及时的风险选择时,无人驾驶技术可能面临着道德困境。[20]此外,个人信息安全问题则在疾病诊断智能应用方面比较突出。(3)人工智能在司法裁判中的应用风险。人工智能在裁判、法律解释中的运用可以提高司法过程的透明度与一致性,[21]但其一直遭受着自由裁量与具体案件具体分析能力不足的批判。[22]在缺乏明确法律规范作为依据的场合下,法律原则及价值理念的考量需要较强的自由裁量能力。与此同时,司法裁判的做出需要推理能力和直觉判断能力并考察判决的社会效果,这些皆不是人工智能的强项。欧盟2016年颁布的《一般数据保护条例》第22条第一款则直接创设了一种新型的数据权利,即不必遵循纯粹人工智能程序做出的决定的权利,[23]这直接要求司法判决中必须有人力的参与。(4)非独特性风险,以结构性失业为典型。人工智能带来的高效率、高安全性很可能彻底改变用工状态,[24]造成结构性失业,一些人力劳动将彻底被人工智能取代,由此造成的社会影响是需要认真分析的。

通过对人工智能主要特征及应用状况的分析,人工智能风险规制的现实需求得以充分展现。风险规制必须进一步厘清人工智能风险的独特属性及其规制困境,才能对症下药,分析寻找人工智能风险规制的可行出路。

二、人工智能的风险属性及其规制困境快醒醒开学了

基于人工智能及其研究开发的相应特征,人工智能风险呈现出如下独特属性。首先,私人企业在人工智能开发中的主导作用导致了信息的严重不对称,多学科交叉与前沿知识的运用使相关风险在现有的认知水平下具有不可知性。其次,不同人工智能可造成不同种类的风险,相同人工智能在不同领域的应用亦可能造成不同种类或不同程度的风险。与此同时,风险具备较强的可变性,在规制真空的状态下,低水平风险很可能在短时间内发展为较强的风险,这种多样性与变动性对规制提出了严峻挑战。再次,人工智能风险还是一种典型的系统性风险。[25]人工智能的应用被嵌入在非常复杂且相互影响的社会、金融等系统之中,系统与系统之间、系统内部诸要素之间的关联性扩大了风险的潜在影响。系统环境越是复杂与非线性,相应风险就越容易被系统的关联效应放大,以致影响多方面的利益相关者。最后,人工智能风险亦具备两面性。规制失败造成的风险应当被充分考量。企业家与技术开发者往往对规制怀有一定程度的恐惧,其认为除非技术创新对社会发展造成严重的损害,否则创新不应当被阻止。[26]此外,规制措施的采取在很大程度上受到民众意见的影响,这种影响很可能错误地左右了规制机关的相应选择。人工智能的风险属性决定了风险规制的具体困境。

(一)规制的滞后性

人工智能风险的不可知性与多样性使规制者的步伐滞后于技术开发与运用的脚步。风险的可变性与系统性亦导致规制者难以对风险的发展变化做出充足的预估与反应。规制的滞后性往往具备正反馈效应,一时的滞后往往对技术开发者形成进一步规避监管的不当激励,继而造成规制的进一步滞后。此外,规制者面向未来的监管,往往因立法的缺失或模糊而难以及时采取行动,这在一定程度上造成了规制的掣肘。

规制的滞后性是造成规制对抗的重要原因。“科林格里奇困境”揭示了这一过程:在技术发展的早期,规制者往往因信息匮乏而无法采取行动;而伴随时间的推移,相应技术很可能根植于人类的日常生活,以至于规制者一旦采取行动即遭受来自使用者、开发者、投资者的抵抗。[27]人工智能技术的广泛应用使上述困境成为规制者面临的主要难题。以“无人驾驶”技术为例,其广告宣传的主要亮点都是帮助用户克服传统汽车带来的风险,这使政府部门在面对新兴风险时往往缺乏规制的积极性。新兴产品的确对传统产品形成了明显的替代效应,但其很可能只在短期之内或者某一方面具有克服风险的功效。长远或者通盘考虑,其可能造成新的风险。以目前的检验、检测技术难以直接高效地分析风险内容及其发生的可能性。风险认知上的挑战极大地增加了规制的难度,盲目进行全面禁止很可能阻碍技术创新。随着无人驾驶技术的推广,利益相关者特别是被规制者的俘获或阻挠将成为新兴风险难以规制的重要原因。当规制者以相对消极的方式进行信息收集时,新兴产业也在采取应对措施。[28]即使未来规制主体可以为规制措施构建正当化基础,被规制对象也很可能已经获取了与规制者讨价还价的“政治资本”。[29]此外,社会公众对风险的认知更倾向于“体验——情感模式”,[30]其风险的判断更多立足于感官刺激,对新兴风险的认知更加缺乏理性的判断。[31]当新兴技术博取了社会公众足够认可时,规制很可能面临来自社会公众的对抗,这种对抗往往成为影响规制成败的重要因素。

规制的滞后与规制的对抗在很大程度上形成了封闭的恶性循环。规制的滞后导致了规制对抗的出现,而规制的对抗又反过来加剧规制的滞后性。如何打破规制的恶性循环成为人工智能风险规制的主要困境之一。

(二)传统规制的僵化与失灵

目前风险规制主要依赖事前与事后两种模式解决问题:以准入规制为代表的事前规制模式主张,当风险因素造成对人类健康或生存环境的威胁,预防性的措施就应当被采取,即使有些因果关系尚未被充分科学地建立。以司法裁判和行政处罚为代表的事后模式则只在造成实际损害,或有切实证据证明相应行为一旦持续,将很可能造成损害结果时才能启动相应的程序。而在人工智能的视野下,传统规制面临着僵化与失灵的困境。

规制者在进行人工智能产品的准入规制时,往往无法在准入与否与准入条件等方面进行准确的判断。规制者很可能倾向于禁止新产品的商业化以回应公众担忧,即使没有证据证明这种担忧有可靠依据。准入规制上“全有或全无”的僵化做法为企业的发展造成了不确定性,很容易损害技术创新效益。桑斯坦通过总结新技术发展过程中的管制状况指出,人们总是倾向于过分担忧技术创新造成的损失。[32]他认为规制者应当避免对尚未认定清楚的未来风险进行过度严苛的管制。

人工智能风险规制在很大程度上是进行取舍的过程。即使具备一定依据,严格的风险预防措施亦难以符合效益原则。此时,风险规制似乎陷入悖论之中:风险的不确定性已然赋予规制主体较大的自由裁量权,如果依旧进行举证责任的倒置,则会使行政相对人处于非常不利的位置,致使规制主体更容易摆脱程序的制约,而如果举证责任由规制机构承担,则畸高的成本使预防原则难以发挥作用。尽管健康、安全、生态环境的重要性不言而喻,但大部分风险并非真正不可逆,以该模式对创新活动进行禁止或严格的限制将形成规制的路径依赖,进行纠正的难度是相当大的。

另一方面,事后规制则面临着失灵的困境。支持事后规制的观点认为,赔偿责任的追究可以提供充足的威慑。但风险规制的不确定性,导致事后机制的发挥遭受较大的阻力。因果关系的证明上存在较大的难度,举证责任的倒置也只能在有限的范围发挥作用。人工智能风险往往涉及诸多利益相关者,事后责任的分配不仅繁琐,更存在理论上的困难。在诉讼程序上,小额集团诉讼等制度短板亦限制了事后责任追究机制的发挥。[33]风险的潜伏性,不仅增加了调查取证的难度,侵害的不可预知性亦常常作为被告的辩解理由。[34]被告的偿付能力亦是风险规制中需要考察的环节,被告出现财务困难以致破产的情况将导致受害人清偿难以实现。即使在诉讼机制相对健全的美国,环境侵权等案件中私法责任追究机制亦只能发挥较弱的威慑作用。[35]

行政处罚等规制措施在信息不足的情况下亦面临着失灵困境。首先,大量与规制有关的信息被掌握在作为信息源的创新主体手中,市场创新主体亦有强烈的动机选择性地披露对自己有利的信息。即使证明创新的益处远远超过其弊端,开发企业亦不愿意披露克服弊端的方法或其他信息,原因在于弊端的克服对于创新者而言往往意味着新的商机。其次,事后规制为被规制者留下充足的时间进行联合对抗,规制者很容易错失规制良机。从根本上看,处罚措施构建起的规制对垒无法为人工智能风险防控营造合适的规制氛围。

(三)合作规制的现实困境

规制合作问题是困扰新兴技术行业监管的主要问题。[36]首先,人工智能技术开发本身具有强烈的跨学科属性,且相同的人工智能技术很可能在不同行业进行应用,这在根本上决定了规制机构之间合作的必要性。其次,行业内部已经发展起一些行为准则或产业标准,规制机构应当兼顾行业内部的行为准则与自我规制,形成公私规制的良性互动。最后,人工智能风险规制应当更加强调问题导向性,并成立专门的委员会以处理规制机构之间、公共规制与自我规制之间、硬法与软法之间、法律与道德之间、经济发展与其他效益之间的矛盾问题。由此可见,合作机制成为人工智能规制必须解决的重要问题。其反映了规制“去中心化”的趋势——没有哪一方主体可以在人工智能风险规制中居于绝对的主动地位或中心位置。[37]人工智能风险规制的诸多困境与规制资源的分散化决定了人工智能风险规制只能是多方主体平等参与的开发性场域。当然,合作规制的过程中亦应当防止规制俘获。规制者和被规制者的频繁互动大大增加了规制俘获的可能性。相较于其他技术创新领域,人工智能领域则更加容易出现交叉任职的情况。人工智能技术知识与专家意见被人工智能企业的高级雇员掌握,这使得规制者倾向于雇佣前述人员参与规制。这种交叉任职的情况,大大增加了规制俘获的可能性。

综上所述,人工智能风险的独特属性决定了规制的多重困境。现行规制主要依托法律命令和行政制裁等手段的直接应用,政府部门被认为是合理垄断规制资源和规制权力的规制中心,由此造成了规制的滞后与失灵,难以满足合作规制的现实需要。寻求规制思路的变革成为走出规制困境的关键。

三、实验型规制:人工智能风险规制的可行出路

在过去20年间发展形成的回应型规制理论,在很大程度上对传统规制形成了变革与替代,其能否为人工智能风险规制提供相应的理论指导是需要探讨的问题。回应型理论的出现展现了单一命令型规制向可控性和适应性更强的复合型规制体系变迁的整体趋势,但该理论的局限性决定了其无法成为人工智能风险规制的理论基础。

(一)回应型规制理论及其局限性

典型的回应型规制理论从法社会学与经济学的角度倡导规制手段的谱系化,以此实现政府规制与非政府规制的合作与互动。[38]其遵循以下原则:(1)任何规制措施应当是针锋相对的选择,(2)首先考虑使用说服教育和自我监管的措施,(3)政府的强制性措施作为最后选择,(4)规制强度应当逐步提升。[39]与之对应,整体规制策略则可分为自我规制、强化型自我规制和命令强制型规制三种类型,具体规制手段也形成了由弱及强的金字塔体系。在此基础上,“聪明监管”理念的提出使原有单面的金字塔体系演化为三面金字塔体系,第一面是政府监管,第二面是企业自我监管,第三面是第三方监管。[40]在具体的规制任务面前,规制者不仅可以增加直接监管的强度,还可以强化企业的自我监管与第三方监管。还有学者基于回应型理论提出了双层监管的构想,将建立有效内部监管体系的企业放入第一层级,政府部门可以减少对它们的直接规制转而对企业内部监管体系进行补充监督;而尚未建立起严密监管体系的企业则被放入第二个层级,对之保持着传统的命令型规制。[41]由此可见,回应型规制理论旨在转变政府自身定位,由原来的直接规制者转变为规制体系的构建者,通过制度构建保证其他非政府组织的主体地位,并激发自我监管的意愿和能力。立足回应型理论,一些专门针对现代风险的规制理论得以提出。[42]如“真正风险回应型理论”主张风险规制应当对被规制企业的态度、行为、文化氛围、机构环境、交互控制等方面作出回应,规制者应当积极探查不服从行为,并以不断发展变化的策略和手段积极应对这

  ······

法宝用户,请登录
谁敢欺负我的人
后查看全部内容。
还不是用户?点击单篇购买;单位用户可在线填写“申请试用表”申请试用或直接致电400-810-8266成为法宝付费用户。
【注释】                                                                                                     
©北大法宝:(www.pkulaw.cn)专业提供法律信息、法学知识和法律软件领域各类解决方案。北大法宝为您提供丰富的参考资料,正式引用法规条文时请与标准文本核对
欢迎查看所有产品和服务。法宝快讯:如何快速找到您需要的检索结果?    法宝V5有何新特色?
扫码阅读
本篇【法宝引证码CLI.A.1281882      关注法宝动态:  

法宝联想
【相似文献】
【作者其他文献】

热门视频更多