人工智能算法决策对行政法治的挑战及制度因应
2020/8/11 11:14:44  点击率[19]  评论[0]
【法宝引证码】
    【学科类别】行政法学;人工智能
    【出处】《行政法学研究》2020年第4期
    【写作时间】2020年
    【中文摘要】以大数据为基础的新一代人工智能在行政规制领域中日渐广泛的运用正在促发行政规制的智能转型。人工智能算法自动决策在提升行政规制效能、防止行政恣意,实现决策公正方面发挥着重要作用。同时,算法决策具有自动性、高度的复杂性和模糊性特征,给依法行政原则、正当程序原则、行政公开原则和行政公平原则等现代行政法治原理带来严重挑战。基于此,在规制路径上,可以考虑赋权规制路径,在合理限定算法决策适用范围的基础上,通过赋予在算法行政自动决策中处于弱势地位的行政相对人免受算法自动决策权利、算法解释权,并赋予特定专门机构算法决策评估审查权利,以确保人工智能算法决策在行政法治框架下作出,进而发挥其助推行政法治建设的作用。
    【中文关键字】人工智能;行政法治;算法自动决策;技术正当程序;算法解释权
    【全文】

      一、问题的提出
     
      伴随着机器学习算法决策的广泛运用,人类社会正逐渐迈入基于大数据的人工智能时代,人类社会的生活、制度和结构正经历着复杂而深刻的变革。而作为塑造人类社会基本结构的法律制度规则,乃至潜藏于规则背后的现代法律理念和价值,都正在经受着来自人工智能的“颠覆性力量”的强势“重塑”。面对着这股席卷人类社会的人工智能浪潮,包括法律学者在内的研究者们,正以一种喜忧参半的复杂心情,投入到人工智能课题的研究之中,描绘人工智能带来的全面而深刻的社会转型。
     
      目前国内法律学者对于人工智能的研究更多聚焦于制度规范维度,即侧重研究人工智能给传统法律制度带来的挑战,思索人工智能时代的法律制度和法律职业的变迁转型,乃至“死亡与终结”。客观而言,这一研究进路和视角,深入考察作为技术的人工智能与作为制度的法律之间的互动关系,关怀人工智能时代的法律“命运”,具有重要价值。然而,其偏颇之处在于,将人工智能简单地视作一种推动法律转型的外部颠覆性力量,并认为法律制度在人工智能技术倒逼之下,除了进行强制性的、颠覆性的改革与转型,以适应人工智能技术日新月异的发展之外,已经别无它途。我们认为,置身于人工智能时代,需要反思的一个重要理论命题是,面对人工智能强势融入人类的社会生活,变革社会制度与结构,法律制度是否只能被动回应?法律共同体乃至整个人类社会,是否需要为了适应人工智能时代,转而将捍卫人们珍视的尊严、自由、隐私、自主等诸多现代社会基本价值的法律制度,乃至于蕴含于制度文本背后的“法治原理”统统摒弃?
     
      经典行政法治原理蕴含着现代法治的基本理念,在控制行政权力和保障公民权利方面发挥着举足轻重的作用。人工智能时代,伴随着大数据分析、人工智能技术在行政规制诸领域日渐广泛的运用,经典行政法治原理正面临深刻挑战。然而,目前法学界对人工智能的关注更多集中于民商法领域和司法审判领域,更多聚焦于人工智能主体地位,创造物归属及其在司法审判中的运用可能与限度等问题,对于人工智能给行政法治带来的诸多理论和实践命题,国内法律学者虽然有所触及,但是却仍未展开系统性思考。面对当前行政规制领域正在出现的智能转型,笔者不惴浅陋,带着对于上述问题的理论追问,聚焦于人工智能算法决策对经典行政法治原理的挑战与可能的制度因应方案。在考察目前行政规制领域的智能转型基础之上,系统检视人工智能算法决策对行政法治原理的结构性“侵蚀”,思索人工智能算法决策在行政规制领域适用的法律边界与规制方案。
     
      二、行政规制的智能转型:人工智能在行政治理中的兴起
     
      在现代风险社会背景之下,传统行政主导型社会治理模式正面临着严峻挑战。而伴随人工智能时代的到来,行政规制部门在日常行政治理活动中越来越多地运用大数据、人工智能等现代科技手段,以纾解行政治理的压力,回应现代风险社会的治理需求。2017年,国务院颁布《新一代人工智能发展规划》指出,要“推进社会治理智能化”,“围绕行政管理、司法管理、城市管理、环境保护等社会治理的热点难点问题,促进人工智能技术应用,推动社会治理现代化。”由此带来了传统行政规制的智能转型。
     
      (一)人工智能在行政治理中的兴起
     
      目前,以大数据为基础的人工智能不仅运用于商业活动中,而且正日益为行政机构所青睐,运用于食品安全、环境污染、社会治安等诸多社会治理活动之中。
     
      1.食品安全领域的智能转型
     
      近年来,我国食品安全问题多发频发,给人民生命健康带来严重威胁,对规制机构构成巨大监管压力。为了提高监管效能,一些省市开始将大数据、人工智能等现代科技手段运用于日常食品安全监管之中。例如,上海市先后出台多个指导性意见,要求该市各级食品监管部门充分运用大数据分析、人工智能等现代技术,探索食品安全的智慧监管模式。据媒体报道,2018年7月,上海静安区食品监管部门对辖区2000多家高风险食品生产经营企业安装“天鹰”智能分析系统。该智能分析系统的后台算法能够对摄像头拍摄的镜头进行智能分析,识别出存在的食品安全违法行为,并将这些违法信息报送给属地监管部门,截止2019年2月16日,这套“天鹰”系统共计产生报警数量3764次,处理报警数量3120次,除误报外做到受理处理率100%。在这3764次报警中,温湿度报警2605次,未佩戴口罩报警940次,鼠患报警219次,有效提升了辖区食品安全监管效能。
     
      2.环境污染领域的智能转型
     
      伴随着我国经济发展,环境问题日益突出,环境污染治理成为摆在各级政府面前的一项重大难题。在此背景下,一些地方的环保部门开始将大数据、人工智能融入环境污染的监测和治理活动中,以提升环境治理效能。例如,北京通州区环境监管部门日前试运用“城市大脑·生态环境”生态环境综合治理平台,探索利用大数据、人工智能高科技手段解决城市副中心的环境污染治理难题。据媒体报道,通过视频监控探头人工智能感知、智能生成事件,网格化统一受理、各职能部门处理,最后办结反馈,在短短的半个月时间内,这一生态治理平台就发现了1683个环境污染案件。
     
      3.社会治安领域的智能转型
     
      现代社会是一个高度流动性的陌生人社会,其间充斥着诸多影响社会公共安全的不确定性因素。在此背景之下,公安部门大力推动人工智能技术在公共安全领域的深度应用。各地公安部门积极探索社会治安的智能监管,将大数据、人工智能手段运用于社会治安风险防控,构建智慧公安,以提升城市社会治安综合治理能力。例如,2018年,上海公安试点应用闸机票卡、视频智能分析等技术手段实时采集分析人员密度、人流速度、行走方向等要素,通过预设风险预警阀值,实现对轨道交通区域客流的实时监测预警,并建立了不同响应级别的疏导管控机制,提高了社会治安治理能力。
     
      由此可见,大数据分析、人工智能等现代科技手段正逐渐融入到现代风险社会诸多行政治理活动中,并且占据着日益重要的地位。在大数据、人工智能席卷之下,国家治理正在进行全面而深刻的智慧转型。
     
      (二)行政治理智能转型的功能分析
     
      目前,人工智能算法决策之所以在食品安全、环境污染和社会治安防控等行政治理活动中被日益广泛的运用,并呈现出行政治理智慧转型的时代景象,原因在于以大数据分析为基础的人工智能算法决策饱含着决策者的以下功能期待。
     
      第一、人工智能算法决策有利于提高行政治理效率。在真实的行政规制场景中,受制于有限的执法资源和执法方式,执法机关在日常监管中通常难以有效发现违法行为,导致行政执法的效率低下。借助大数据、人工智能手段进行智慧监管,执法机关得以摆脱传统执法的人海战术和运动式执法模式,能够以较低的执法成本来发现尽可能多的违法行为,提高了执法效能,实现所谓“完美执法”。
     
      第二、人工智能算法决策有利于提升行政治理精准性。现代高度复杂的社会形态呼唤精细化治理思维和手段。而以大数据分析、人工智能技术为基础的“智慧”治理则是一种典型的精细化治理。原因在于,机器学习算法不同于传统的统计分析技术,其是对海量数据的分析、建模。由算法模型所自动生成的决策是建立在对海量数据的挖掘和训练基础之上,而这些海量数据信息中包括行为对象的位置信息、行踪轨迹、偏好信息。借助于海量数据信息,算法模型得以对特定行为主体进行精准的“用户画像”,并能基于海量历史和实时数据对其未来行为进行精准预测,实现所谓“完美预测”,进而提高行政治理的精准度。
     
      第三、人工智能算法决策有利于确保行政决策公正性。人类在作出决策的过程中常因受情感、情绪等因素的影响而容易产生偏私、偏见、乃至歧视,从而影响决策判断的公正和客观。众所周知,传统中国社会是一个典型的人情社会。在相当长的一段时期内,人情、关系等因素在基层社会治理活动中产生着重要作用,并严重影响基层行政治理活动的公正性。而“技术中立”的算法模型能够自动决策,被认为能够有效地将那些复杂人情、关系等人为因素排除出决策过程,避免行政决策的恣意和专断,实现行政决策的客观和公正。
     
      正是基于对以大数据分析为基础的新一代人工智能技术的上述功能期待,行政机构近年来大力倡导大数据、人工智能技术在国家治理中的广泛运用,以实现国家治理现代化转型。伴随着行政规制的智能转型,其对经典行政法治理念和制度的挑战与因应问题亦逐渐突显出来,并亟须从理论和制度层面予以回应。
     
      三、危机中的行政法治:人工智能算法决策对行政法治原理的挑战
     
      行政法治原理既是构筑行政法律制度大厦的理论基石,也是现代行政法治的重要组成部分,在控制行政机关权力,防止行政恣意,维护和保障公民权益等方面发挥着重要功能。经典行政法治原理主要蕴含于行政法基本原则之中,具体而言,包括依法行政原理、正当程序原则、行政公开原则、行政公平原则等。伴随着人工智能算法自动决策的日渐兴起,经典行政法治原理正面临愈益严重的挑战。
     
      (一)人工智能算法决策的自动性导致依法行政原则衰微
     
      依法行政原则是行政法治原理的首要原则。依法行政意味着行政权力来源于法律授权,行政权力的行使须受法律的严格控制和约束,行政机构超越法律范围行使行政权力则构成违法。依法行政原则确立了对行政活动的“法律统治”,是建立现代法治政府的一项基本原理。
     
      在人工智能时代,行政机关在行政执法活动日益广泛运用大数据算法模型来做出行政决策,这种具有较高程度自动性的决策过程,一方面,对于行政机关而言,有助于提高行政机关行政执法活动的效率,节约行政成本;另一方面,对于行政相对人而言,借助于人工智能算法决策,能够为其提供高效便捷的服务。然而,我们必须看到,伴随着以机器学习、深度学习为标志的人工智能在现代政府行政活动中的广泛运用,却导致依法行政原则的衰落。行政机关所作出的决策是基于计算机程序员所设计的算法模型自动生成的,而算法模型的设计则是通过“喂食”海量数据,并经由“机器学习”,进行数据训练建立起来的。机器学习具有“自学习”特征。这意味着,人工智能算法决策具有相当程度的自主性,能够在无须人类执法者介入的情形下自动生成。此时,原本由执法者依据法律作出行政决定的过程转变成为由计算机程序员设计的算法自动作出决策的过程。算法自动决策在现代政府决策中的广泛兴起,导致计算机算法或者代码显露出取代法律功能的趋势。在人工智能时代,法治在政府治理的基础性地位正在日渐受到侵蚀,原本在法律统治下的政府,逐渐呈现出由人工智能机器接管,异化为由算法机器统治下的政府。
     
      对于人工智能时代背景之下现代法治政府正在经历的重大转变,一些法律未来主义者倒是乐观其成。在他们眼中,作为人类社会基本制度构造的法律制度本身只不过是一种算法而已。而且,相较于具备深度学习能力的算法模型而言,人类制定的法律具有高度的稳定性和确定性,被认为只不过是一种并不具有学习能力,或者学习能力严重滞后的算法,其功能远不及由海量数据所训练的算法模型强大。在上述观点中,我们隐约看到了一种令人担忧的倾向:即法律规则的算法化,乃至于人的机器化。美国学者皮埃罗·斯加鲁菲对此就曾发出警惕:“不长脑的机器和不思考的人没什么两样,不是因为机器已经变得和人类一样善于思考,而是人类已经变得像机器一样没头没脑”。在这种认知之下,由技术人员所建立的各种算法模型逐渐开始取代法律规则,涉入行政决定过程之中。其中,既包括那些享有较高裁量度的行政决策领域,亦不乏那些已经受到法律严格拘束的行政规制领域。对于前者,由于法律并未对行政主体苛以严格的法律限制,而是赋予其宽泛的裁量权,行政机关在这一行政活动领域运用人工智能算法模型进行自动化决策对依法行政原则的冲击并非最为严重的。对于后者,由于现有法律规则已经对行政机构的裁量空间作出严格限制,在此情形下,如果行政机关仍然选择运用算法自动决策,则极有可能会侵蚀,甚至取代法律对行政的控制,导致所谓“法律的统治”异化为“算法的统治”,从而削弱现代法治政府的根基。
     
      (二)人工智能算法决策的自动性与模糊性导致行政正当程序原则被悬置
     
      正当程序原则是行政法的一项基本原则,意旨行政机关在作出涉及或影响行政相对人或者利益相关者权益的决定之前,需要给予行政相对人陈述、申辩的机会,听取行政相对人的诉求,并且需要对所作出的行政决定说明理由。正当程序原则是维护公民基本权利,实现行政正义,建设现代法治国家的重要制度保障。然而,伴随着人工智能算法自动决策在行政治理活动中的兴起,却引发了正当程序的危机。
     
      一方面,算法自动决策严重危及陈述、申辩和听证等程序性基本权利。在传统行政决定场景中,法律为行政决定的相对人和利益相关者提供了提出申辩、表达利益诉求的机会,并设置了相应的程序性装置。透过这些法定的程序性装置,行政决定相对人和利益相关者得以在决定作出前,行使行政程序性权利,从而捍卫自身权益,并确保行政决策公正。然而,在算法自动决策场景中,算法自动决策是在算法程序员监督机器学习,甚至自主学习的基础上,由算法模型自动生成。由于行政决定是由算法模型自动作出,行政相对人和利益相关者在决定作出前,无法透过法定的程序装置参与到行政决策的过程中,充分行使法律所赋予的陈述、申辩、要求听证等各项程序性权利,而只能接受冷冰冰的算法决策结果。在算法自动决策场景中,决策的控制权实则由算法模型的设计者和使用者掌握着,“控制权的分布是极其不对称的。公民将被评测,但他们不能反过来去评测那些评测他们的机构。”这种不均衡的决策权力配置格局,导致法律赋予公民的一系列程序性基本权利被弃置一旁。
     
      不可否认,行政机关运用人工智能算法自动生成的行政决定在效率和精准度方面有很大提升,但是这种以效率为导向的算法自动决策却是以褫夺行政相对人的一系列基本程序权利为代价的。诚如凯西·奥尼尔所言:“一个数据处理机器是不可能了解自己把一个有价值的潜在客户分配给机器人客服的。更糟糕的是,被无监控的电子评分系统评选出的失败者无权抱怨,更不用说纠正系统的错误了。”在算法自动决策场景中,由于决策的自动性,受决策潜在影响的个人在决策之前无从获得申辩和听证的机会,从而对公民享有的基本程序权利构成了严重威胁。
     
      另一方面,人工智能算法决策危及行政相对人获得行政决策解释的权利。根据正当程序原则,行政机关对其所作出行政决定负有说明理由之义务,以阐释其行为是基于充分的事实和理由而作出的,具有合法性和合理性。然而,在算法自动决策场景中,行政机关和算法模型的开发者基于以下诸方面因素而拒绝对其决策结果加以说明,给出合理解释。首先,主张算法自动决策不具有可解释性。行政机关和算法开发者主张算法决策是由算法自动生成的,其决策过程是在监督下对海量给定数据进行学习,甚至在无监督下自主学习,建立算法模型后自动作出的决策,不具有解释的可能性,无论是作为算法模型开发者的算法程序员还是作为算法模型和软件使用者的行政机构,都不具备对算法决策进行解释的能力。其次,主张算法模型包含商业秘密而拒绝说明理由。再次,主张对算法决策加以解释将会影响算法模型的有效性,甚至危及国家安全。基于上述理由,行政机关和算法模型的开发者拒绝对其决策承担说明理由的义务,而行政相对人和利益相关者则根本无从知晓那些对他们的合法权益产生重要影响的算法决策究竟是基于何种理由作出的。
     
      由此可见,人工智能算法自动决策对个人的基本程序权利构成严重威胁。然而,算法自动决策却在行政机关所宣称的精准治理和科学治理的幌子下,在行政机关对执法效率的片面追求中,被日益广泛地运用于诸多行政治理领域,而其对正当程序原则产生的严重侵蚀却常被忽视。
     
      (三)人工智能算法决策的黑箱效应导致行政公开原则难以践行
     
      行政公开原则是现代行政法上的一项基本原则,也是衡量现代法治政府建设的重要指标。行政公开原则及以此为基础的一系列法律规则在防止行政权力恣意方面发挥着重要作用,亦是确保政府透明,实现法治政府的重要制度保证。
     
      然而,伴随人工智能算法决策在政府治理中的广泛运用,却与人们期待的高度透明的理想政府愿景渐行渐远。围绕着算法自动决策透明性的争议不绝于耳,这些争议都指向算法自动决策的模糊性以及“黑箱效应”。根据美国学者珍娜·布雷尔的研究,算法决策的模糊性主要源于以下三个方面:第一,由于商业秘密或者国家秘密所导致的不透明性;第二,由于技术了解程度所导致的不透明性;第三,算法本身的复杂性所导致的不透明性。其中,国家和商业秘密所引发的不透明性在传统行政决策场景中同样存在,关键的区别实则在于机器学习算法本身的复杂性。
     
      算法的模糊性及其“黑箱”效应,使得普通公众无法了解政府的决策过程,也无法监督政府权力的运行。诚如学者所言:“缺乏透明度也威胁着政府的合法性。如果政府行为符合普遍已知和理解的规范,则被视为合法行为,而缺乏这些特征的规则被视为无效规则。机器学习算法的不可理解性意味着无法确认政府行动者是否遵守规则。一系列实证研究表明,个人更可能接受一个他们认为过程公平的政府为合法政府。预测分析及其‘黑箱化’的决策过程由于无法解释其结果而破坏了这种认知。”借助于机器学习算法模型,政府权力得以在高度隐秘的状态下行使,作出那些对人们产生重要影响的决策,但是这些经由机器学习算法所自动生成的决策却因缺乏传统行政决策所具有的透明性和可解释性而陷入合法性危机。
     
      在人工智能时代,各执法部门正日渐广泛地使用智能机器来替代人类执法者,“使用隐藏的算法进行那些我们无法理解的论证,不断给出可以决定我们生活的得分”。而我们却无法知晓算法决策的作出过程和依据,而只能被动接受由冷冰冰的算法模型自动生成的决策方案,无奈承受由其带来的负面后果。相形之下,人们则处在程序员所精心设计的算法模型的高度“透视”之下,相对于那些隐藏在算法模型背后,并以涉及国家秘密或以具有高度复杂性为由拒绝公开其决策过程和决策依据的“数字利维坦”而言,行政相对人则沦为一个个被高度透析的“微粒人”或高度透明的“数字化主体”。由此可见,在算法自动决策主体与相对人之间横亘着一道深深的数字鸿沟,导致甚至加剧了两者之间的信息不对称格局。
     
      (四)人工智能算法自动决策导致行政公平原则受到侵蚀
     
      行政公平是行政法律制度上的一个重要原则,亦是经典行政法治原理的重要内容。行政公平原则包含以下三个方面的内容。首先,行政公平原则蕴含着行政机关平等对待行政相对人,不得因行政相对人的身份、民族、性别、宗教信仰等存在的差异而予以差别对待。其次,行政公平意味着不偏私情,公正执法,对相同情况给予相同对待;第三,行政公平还意味着行政机关在做出决策中需要合理考虑相关因素,不得专断恣意。现代行政法上的行政公平原则并非单纯追求形式公平或实质公平,而是努力寻求两者的反思平衡。
     
      在行政治理领域,算法自动决策带来了行政公平原则内涵的变迁。在传统行政决策场景中,行政公平原则是构筑于形式公平基础之上,并辅以实质公平。具体而言,法律首先确定行政机关在做出行政决策过程中,不论种族、性别、宗教信仰、肤色等的不同,亦即法律通过强制性规定,织就一张“无知之幕”将那些根植于人类内心深处可能会影响人类决策公正的因素排除出去,从而确保行政决策在形式上的公平,之后再辅之以差别原则,通过相应的制度设计,针对现实情境中因形式公平所造成的实质不公平给予制度调整,力求营造一种反思均衡后的“公平”状态。这是罗尔斯为人类社会描绘的正义理想蓝图,也是现代行政法治所孜孜以求的“行政公平”的愿景。诚然,借助于算法模型,行政机关得以对海量数据进行分析,并自动生成处理结果,这有助于避免行政机关在作出行政决定过程中受到各种人为因素的影响,从而实现所谓的行政公平。然而,我们应当看到,在算法自动决策场景中,现代行政法治承袭罗尔斯的作为公平的正义理论所努力营造的均衡“公平”状态正逐渐被打破甚至颠覆。
     
      一方面,算法模型刺破了维护形式公平的“无知之幕”。借助于算法模型,行政机关得以按照“人以群分、物以类聚”的原则,对人类和事物进行各种精细分类,并形成所谓的“分类社会”。在人工智能算法模型所建构的分类社会中,个体被算法模型归置到特定的分类当中,并被贴上了各种标签,而这些标签则成为评价真实个体偏好、能力的基本标准和尺度,算法模型会自动生成个体的“评分”,并据此评判特定主体的信誉和潜在风险程度。“为了便于算法分拣,人类必须接受分解程序的处理,被拆解成一个个便于分析的成分。他们不再是不可分割的‘个体’,而是成为可以被细化的‘分格’。”在对海量数据进行详尽和动态分类基础上,算法模型将自动对个人进行全方位的画像和评分。而且,由算法所生成的评分系统会产生系统性连锁反应,进而决定着每个人当下的生存境况和未来命运。
     
      在人工智能时代,行政机关得以在执法活动中广泛运用监控和传感器设备实施大规模监控,收集海量关于身份、隐私、个人行踪、偏好等多维数据信息,并通过机器学习算法对所搜集的海量数据进行分析预测,对特定主体的违法风险进行评分,从而发现和预测潜在的违法行为。表面观之,透过算法模型对涉及特定主体的海量数据的分析,行政机关得以精确了解每个个体的性别、种族、身份、生理特征、行踪轨迹等个人敏感信息,并据此作出“精准预测”,实现对个人的差别对待。
     
      在传统行政决定场景中,为了保证行政决定的公平公正,这些涉及个体的隐私因素的信息原本被一张“无知之幕”的幕布来加以遮盖。然而,在由大数据驱动的人工智能算法决策场景中,这张保证形式公平的“无知之幕”被行政机关所运用的算法模型轻而易举地揭开。而一旦揭开了这种“无知之幕”之后,以往构筑在形式公正之上的“实质公正”,便直接沦为所谓的“实质公正”。而这种缺乏无知之幕所构筑的形式公正保障的实质公正,本质是一个差别对待,亦即透过算法模型“精准”定位每个人的生理禀赋、性格特征、偏好,地理位置,进而精准推测其在所置身的特定社会中“地位”,行政机关最终根据算法模型对个人的评级,作出对其权益产生重大影响的决策。而这种所谓的基于特定主体偏好、能力、地位作出的“精准”决策将进一步固化其在整个社会中的地位,导致实质不公平,并加剧社会不平等和不公正。在由大数据算法模型所主导的行政决策场景中,“受优待和受歧视的群体主要是在计算的过程中才能被区分开来,法律将不再是为平等的人而撰写,我们需要生产出‘平等者’,使得他们服从这样的规则。”
     
      另一方面,人工智能算法模型危及了行政法上的实质公平。在传统行政决策场景中,为了确保行政决策的个案公正,要求行政机关在决策中需要考虑行政相对人和案件的“相关因素”。同时,执法实践中对相关因素的范围是比较明确的,其本质仍然是构筑在因果关系基础之上的相关性,且将种族、性别、宗教信仰等涉及个人隐私信息和歧视性因素排除在应予考虑的相关因素之外。然而,在算法自动决策场景,大数据驱动的算法决策让人类决策从因果关系的河流涌入“相关性”的海洋,大数据的相关性打破了现代行政法构筑于因果关系基础之上的“相关性”,变得无所不包。由此引发的疑惑与质疑在于:行政机关究竟是基于哪些因素的考量而对其作出决定?这些因素是否应当在特定决策中予以考量?从行政决策公正的角度来说,行政机关借助算法决策模型,对海量数据进行分析预测,实则将大量实质不相关的因素纳入决策过程。这对行政相对人显然是不公平的。
     
      从执法实践观之,基于人工智能的算法决策所产生的歧视问题日益突显。以预测警务为例,为了提升社会治安治理能力,基于算法模型的预测警务被日渐广泛的运用,由此导致的歧视问题亦引发了激烈争论。具体而言,算法模型主导下的预测警务系统在很大程度上决定了警察执法资源的配置和布局,将大量警力投入到对轻微犯罪行为的持续监控和打击上,不仅忽略严重犯罪行为的发现和打击,而且导致对少数族裔和贫困人口的系统性歧视。在大多数地区,由算法模型生成的轻微违法犯罪地图几乎与该地区少数族裔和贫困人口的分布区域高度重叠,并引导警力向少数族裔和贫困分布区域聚集,从而发现更多的违法犯罪行为,由此陷入恶性循环之中。
     
      综上,我们认为,诚然,机器学习算法模型在行政规制领域的广泛运用在提升行政效率,节约行政成本,便利行政相对人,乃至于促进行政决定公平方面发挥着重要作用。但是,与此同时,我们也需要清醒地认识到,在人工智能时代,伴随着算法自动决策的广泛兴起,依法行政原则呈现出衰落的迹象,正当程序原则和行政公开原则被架空,行政公平原则因算法歧视的出现而有落空之虞。客观而言,现代行政法治原理正在遭受来自“数字杀伤性武器”的严重威胁和侵蚀。人工智能算法自动决策对经典行政法治原理的侵蚀,既使得公民所享有和珍视并为现代行政法治所致力于保护的隐私权、正当程序权利和平等权等一系列基本权利受到侵蚀,而且也使得法律人一直致力于建设的,并为人们所期许的责任政府、法治政府和透明政府的美好愿景正在受到人工智能技术的挑战。因此,探索行政规制智能转型中算法自动决策的法律规制方案是法律人所面临的重大而紧迫的使命。
     
      四、通过赋权服膺法治:面向行政规制智能转型的制度建构
     
      面对人工智能时代背景下行政规制智能转型给现代行政法治带来的挑战,法律人不能被技术创新所“绑架”,仓促变革既有的法律制度乃至于法治原理来一味地迎合人工智能技术发展,迁就其肆意滥用,而应当建立相应的法律制度,对人工智能算法决策在行政规制领域的运用加以合理约束。在总体规制方案上,鉴于算法自动决策模糊性导致行政机关与行政相对人之间权力/权利配置的高度不对称状态,可以考虑采取赋权规制方案,针对人工智能算法决策场景的特殊性,建构以权利为核心的算法自动决策的规制体系,以合理发挥人工智能技术助推行政法治建设的功能。
     
      (一)合理限制人工智能算法决策在行政规制领域的运用范围
     
      伴随着国家大力推行人工智能在政府治理活动中的广泛运用,其正逐渐向诸多行政规制领域与环节深度渗透。这种不分界限的强势介入,已经逐渐威胁到依法行政这一行政法治原理。为了捍卫“法律统治”的权威,需要对算法自动决策的领域和范围加以合理界定,以防止依法行政原则被算法自动决策架空。
     
      首先,明确机器学习算法模型在行政规制决策制定中的辅助决策的地位,在运用算法决策的场景中,行政规制机构应当避免陷入对算法模型的盲从和过度依赖。其次,合理限制人工智能算法自动决策的使用范围。根据法律赋予特定行政决定中裁量空间的大小,区分高裁量行政行为和低裁量行政行为,并据此决定是否赋予行政机关采取算法自动决策的选择权。对于已由法律加以严格约束的低裁量行政行为领域,宜严格限制算法自动决策的运用,排除行政机关在该决策领域选择算法自动决策的权利;而针对法律赋予宽泛裁量权的行政行为和行政决策领域,赋予行政机关算法自动决策选择权。这种根据行政决策裁量空间大小来合理界定和限缩行政规制领域算法自动决策运用范围的规制思路,旨在寻求依法行政原则与人工智能算法决策两者之间的平衡,即在遵循依法行政原则的理念之下,充分发挥算法自动决策克服行政恣意,防止裁量权滥用方面功能。
     
      (二)赋予行政相对人免受算法自动决策的权利
     
      面对人工智能算法自动决策在行政规制领域的渗透蔓延,还应当赋予行政相对人免受算法自动决策的权利。这一权利的赋予意味着作为算法自动决策影响的行政相对人,有权拒绝行政机关基于算法模型针对特定行政相对人所作出的自动决策。赋予包括行政相对人在内的数据主体免受算法自动决策的权利,具有重要意义,这一权利源于作为个体存在的人要求作为个体来对待的基本权利。在算法自动决策大行其道的人工智能时代,要求作为个体对待的权利具有重要价值。借助于这一权利,在行政规制场域,行政相对人得以拒绝行政机关借助于算法模型的自动决策方式。而为了确保这一权利的实现,需要赋予行政机关算法自动决策的告知义务,亦即行政机关在运用算法模型自动生成行政决策之前,应当事先告知行政相对人,而行政相对人在被告知后,有权利拒绝行政机关基于算法模型作出行政决策。
     
      (三)赋予行政相对人和利益相关者算法决策解释权
     
      “透明性有助于营造一种信任的气氛,引导大家接受算法的结果”。面对基于算法模型的行政决定不透明性对行政相对人的正当程序权利和行政决策透明性的威胁,在人工智能时代,需要重申正当程序原则在算法自动决策中的重要价值,并亟须建立符合算法自动决策场景的“技术正当程序”规则体系,通过保证行政相对人在算法自动决策过程中的程序性权利来实现增强算法决策的参与性和透明性。同时,考虑到算法功能和商业秘密等因素,完全的、绝对的透明并非我们所一味追求的。基于此,首先,在透明性价值的追求上,需要在算法决策透明性与效率性之间寻求平衡,以“适当透明”作为算法决策透明性标准,避免过度透明造成算法决策功能的完全丧失。其次,以“适当透明”为原则建构面向算法自动决策场景的技术正当程序关键在于赋予行政相对人在算法自动决策的解释权。
     
      “一旦人工智能系统被用于作出影响人们生活的决策时,人们就有必要了解人工智能是如何作出这些决策的。一种方法是提供解释说明,包括提供人工智能系统如何运行以及如何与数据进行交互的背景信息,这种方法可以帮助与用户以及受这些系统影响的人建立信息。通过这些信息,人们将会更容易识别和意识到潜在的偏见、错误和意想不到的结果。”算法决策解释的重要性可见一斑。为了缓和算法决策的黑箱效应,提高算法决策的透明性和责任性,并确保行政相对人及其利益相关者的获得有意义的知情权,行政机关除了算法决策之前和之后的告知之外,行政机关以及算法模型的开发者还需要承担对算法决策的解释说明义务。而从算法决策的相对方和数据主体的角度而言,则是需要赋予其算法解释权。目前,伴随着欧盟GDPR的出台,围绕算法解释权的存在与否与功能价值存在激烈争论。我们认为,算法解释权作为大数据人工智能时代保护公民基本权利的重要制度保障实有设立之必要。在算法模型驱动的行政自动决策场景,赋予数据主体算法解释权实则是说明理由制度的具体化和集中体现,旨在苛以决策者负担对其作出事关数据主体和利益相关者权益的决定说明理由之义务,对于提高决策的透明性和责任性具有重要意义。
     
      在算法解释权的具体构造上,关键在于根据算法决策的具体阶段来明确解释内容和标准。具体而言,基于算法决策的双阶构造,可以将算法解释权区分为以模型为中心的解释权模式和以具体决策结果为中心的解释权模式。前者侧重于对自动生成决策的算法模型的逻辑的解释,又称为基于逻辑的解释;而后者则侧重于对特定算法决策的结果的解释,又称为基于结果的解释。相较而言,基于逻辑的解释权模式在解释标准上要更为严格,也更有利于处于弱势地位的数据主体及行政相对人。我们认为,上述两种解释权模式并非截然对立,非此即彼的关系,而是可以根据具体决策的阶段和情境来综合考量,选择适用合适的解释权模式。
     
      (四)赋予专门机构算法自动决策审查评估权利
     
      大数据在带来数据共享的同时也导致了数字鸿沟,加剧了社会的不平等和歧视,亟须从制度层面加以规制。“如果我们不努力解决,数字鸿沟将成为断层,在那些能够成为信息圈居民与那些无法做到这一点的人们之间,在知情者与不知情者之间,以及在信息富有者与信息贫困者之间造成新型歧视。”面对算法自动决策场景中愈益严重的歧视问题,可以采取对特定算法决策尤其是算法模型加以审查评估的方式,对算法决策可能引发的歧视进行事前的评估。
     
      算法审查评估则是由具有中立性的专门机构享有的对算法模型进行审查评估的权利,相较于算法解释权而言,其呈现出更多权力性面相。为了尽可能减少算法决策所产生的算法歧视以及对行政公平原则的侵蚀,一方面,有必要为算法决策建构符合特定社会场景中大多数人遵循的伦理和正义观念的伦理规则,并将其编码植入到算法模型之中。当然,必须看到,试图找到一套适用于所有人的和所有领域的伦理准则本就是一项非常艰巨的,甚至是不可能完成的任务。鉴于此,宜采分而治之的策略,即针对人工智能技术所适用的具体领域来凝练相应的伦理规则。具体到行政规制领域,应当将行政法治原理所确立行政公平原则作为确立算法模型公平性的一个基本判准。另一方面,需要根据所制定的算法伦理规则对行政机关运用算法模型进行自动决策进行审查,亦即建立算法决策影响评价制度,由专门机构在事前对算法决策可能引发的歧视风险进行影响评价,评估特定行政自动决策的潜在的歧视风险程度和范围。在审查评估机构设置上,应当遵循专业性、中立性的、多元性基本原则,可以采取委员会建制。鉴于算法决策既涉及高度复杂的技术模型、也涉及到伦理和制度层面的因素,因此在人员构成上,应该尽可能地吸纳来自计算机信息工程、伦理学、法学等专业领域,且具有跨学科对话能力的专家参与其中。同时,为避免潜在利益冲突对算法决策审查评估的公正性产生负面影响,在专家遴选方面,宜建立完善的利益声明机制,以确保算法审查评估委员会的中立性。借助算法决策的评估机构,数据主体和利益相关者得以要求算法使用者和开发者对其算法决策的过程加以解释说明,从而能够发现潜藏在算法模型中的偏见乃至于歧视,促进算法决策的公正性和可责性。
     
      五、结语
     
      大数据、人工智能技术促使现代社会逐渐向智慧社会转型,并促使“数字新政”的兴起,现代国家俨然成为超级“数字利维坦”。诚然,这一轮的“人工智能+”行动,引发了政府社会治理的深刻变革,提升了社会治理效能。然而,人工智能技术绝非包治百病的,彻底消除社会治理困局的“灵丹妙药”。现代“数字利维坦”治理能力的提升通常是有代价的,而且代价是重大而非均衡分布的。在行政规制智能转型的真实图景中,我们得以洞悉人工智能与现代法治理念和法律制度变迁之间正在经历的复杂而微妙的解构、互构和重构关系。在这一耐人寻味的互动关系中,我们能够切身感受到法律人正在经历的阵痛。未来已来!置身于人工智能时代,惟愿法律制度和法律职业共同体所历经的阵痛,换来的是法律的“新生”而非法律的“死亡”。因为法律文本,尤其是隐藏于其间的厚重且历久弥新的法治原理是人类智慧和文明的产物,人类正是依凭着这些法治原理方才构造出现代法治政府。在人工智能时代,我们内心憧憬并努力勾勒的理想图景是让人工智能“机器”助推行政法治和法治政府建设,而非取代经历漫长岁月建立起来的法律统治本身,因为其间蕴藏着人类所珍视的尊严、自主、公平及隐私等诸多价值。

    【作者简介】
    张恩典,南昌大学法学院讲师。

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码