反思智能化裁判的可能及限度
2020/11/9 9:00:00  点击率[84]  评论[0]
【法宝引证码】
    【学科类别】法理学;人工智能
    【出处】《国家检察官学院学报》2020年第5期
    【写作时间】2020年
    【中文摘要】人工智能为司法审判方式改革提供了重要的契机,智慧法院的探索、互联网法院的建立让司法变得更信息化、智能化和现代化。司法改革的顶层设计者也开始运用人工智能的理论和技术,来统一法律在类案裁判中的标准和尺度。然而,在变幻万千的智能化时代,司法权的本质并未发生改变,它仍然是一种在开放性的场域中依赖人类理性进行价值争辩和推论的活动。智能化司法采取的“简化裁判过程”和“消解价值判断”的双重策略均与司法的一般性质相悖。人工智能在司法裁判中只能发挥一种有限的辅助性角色,过度夸大甚至将其神化在现实中行不通。大数据预测在简单案件中或许能够实现同案同判的目标,但是在大多数情形下同案同判仍然要依赖人类自己的理性判断。因此,在智能化审判方式改革的进程中,应理性地审视人工智能的内在局限,防止司法裁判异化为仅仅以数据和符号为演算逻辑的机械司法。
    【中文关键字】智能化裁判;同案同判;开放性;价值判断;个案正义
    【全文】

      前两年谷歌旗下DeepMind公司开发的AlphaGo在人机围棋比赛中连胜3局,最终以4∶1的成绩打败李世石,这一方面让人们看到人工智能所蕴含的巨大潜能,另一方面也让人们开始担忧未来社会中人工智能或机器人是否会像科幻电影中所刻画的那样能战胜、主宰乃至奴役人类。2018年底南方科技大学副教授贺建奎“基因编辑婴儿事件”更是一石激起千层浪,让人们再次真切地感受到并警惕基因智能科技所带来的现实风险。一时间人工智能成为了街头巷尾炙手可热的话题,如果不能就人工智能谈论几句,仿佛自己已经被这个快速发展和变迁的时代远远抛在身后了。
     
      就法律领域而言,无论理论界还是实务界都已积极拥抱人工智能。人工智能给法律带来了许多新的课题,譬如人工智能的法律主体地位、数据隐私权、数据财产、人工智能作品的著作权、算法歧视等问题,与此伴随人工智能也会带来伦理风险、极化风险、异化风险和规制风险等现实隐忧。[1]在人工智能给人类生活带来巨大便利和无限可能的同时,一些学者已经开始理性地反思在智能化水平飞速发展的时代如何捍卫人的主体性地位,而不至于让人类沦为算法和技术统治的对象。[2]无论是法学理论研究还是司法实践,人工智能已经全方位地进入了其中。由于人工智能对实践的影响是更为直接和直观的,这促使笔者选择一个较为具体的视角,来窥探人工智能会如何影响或改变司法裁判的样态,尤其是它在多大程度上能够保障同案同判这一重要司法理想的实现。
     
      一、人工智能进入司法
     
      司法的人工智能化大体上属于法律信息学的范畴,是伴随着计算机的出现而产生的一个新型学科领域。人工智能与法(AI & Law)的研究起步于上个世纪七十年代,1970年Bruce G. Buchanan和Thomas E. Headrick合作发表了“一些有关人工智能与法律推理的构想”,[3]这被认为是该领域第一篇系统阐述法律与人工智能的文章。至此之后,法律推理一直是该领域中的核心议题。总体来说,人工智能进入到司法中主要涉及两块内容:司法管理信息化和司法裁判智能化。我国当下正着力推行的智慧法院建设,其实就同时蕴含着这两个方面的内容。近年来,借助于网络大数据平台,我国人民法院的信息化发展水平越来越高,不断推进裁判文书上网公开、审判流程信息公开、执行信息公开以及部分案件庭审公开。人工智能的进入,会让司法从形式上变得更加公正、透明,提升司法公信力和提高司法管理效率。
     
      由于人工智能对上述第一个层面的影响更多的是积极的,因而一般并不会引发太大的争议。相比之下,潜在风险更大、也更值得警惕的是人工智能对司法裁判过程的进入。按照人工智能在司法裁判过程中所起到的作用,通常可以将其分为辅助性功能与决定性功能。前者是指人工智能为司法裁判提供一些辅助性或补充性的手段,比如起草文件、法规检索、审查合同、证据采信率预估、预防性侦查、保释评估、量刑预测等。仅就其中的文件起草,就可以进一步细分为:起草新的法律文件,检索、解释和修改以前的法律文件,多代法律文件的保存与维护,对法律文件进行深度比较等。[4]后者所强调的是对司法裁判所起到的决定性或支配性作用,表现为利用计算机模型来评估事实和预测判决。或者如一些学者所主张的,这个层面要求人工智能为更清晰和严密地呈现司法裁判活动提供新分析工具,从数据库中归纳出规则模型,通过编程和算法为新案件提供判决预测。[5]就进入到裁判过程中这样两种角色的人工智能,可能会影响乃至改变司法裁判性质的显然是第二种。
     
      鉴于人工智能通过将自然语言转化为法律语言,再通过编码技术将法律语言进一步转化为计算机语言,在此基础上事先编制好算法和程序,形成一种计算机的自动推理模型。恰如学者所言,“在人工智能与法领域的学者试图以这样的一种方式描述法律和法律推理,即生成能够在一个计算机程序中实现的模型。建构良好的工作应用程序是人工智能与法研究的首要目标”。[6]人工智能的研究者提出了“法律推理的计算机模型”(CMLRS),其主要工作流程是以文本形式输入案件、分析案件中的系争问题、为该问题预测一个结果、并提供理由为该结果加以论证。该系统所普遍面临的一个问题是,系统的运作有赖于人工对文本语义信息的阅读、提炼和抓取,这种情况在近年来随着“机器自我学习”(machine learning)慢慢获得解决。在系统深度学习的机制之下,CMLRS会自动从先前判决以及成文法等法律文本中抽取信息,并协助人们回答法律问题,预测案件判决、提供解释。[7]
     
      我国的司法信息化之路,始于上世纪八十年代“专家系统”(expert system)的开发和研究。2016年发布的《国家信息化战略发展纲要》和《“十三五”国家信息化规划》将建设“智慧法院”列为国家信息化发展战略。2017年《最高人民法院关于加快建设智慧法院的意见》发布,提出智慧法院建设的整体要求和战略部署,以信息化促进审判体系和审判能力现代化,努力让人民群众在每一个司法案件中感受到公平正义。2017年6月最高人民检察院也通过了《检察机关大数据行动指南(2017-2020年)》,提出了“智慧检务”建设的战略目标。2017年国务院出台《新一代人工智能发展规划》,提出建立智慧法庭。建设集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。
     
      就人工智能进入司法的基础和价值来看,学者们主要从两个角度来展开论证,即效率和公正。首先,就效率而言,这几乎体现在从司法管理到司法审判的每一个环节,智慧法院、互联网法院是司法信息化建设的重要产物。在法院收案量急剧飙升和员额制改革的背景下,一定程度地加剧了“案多人少”的矛盾。无论是司法管理者还是法官个人,都希冀强大的人工智能能够减轻司法审判负担,提高司法效率。借助于司法大数据,能够迅速、高效地预测和解决大量简单的同类型案件;其次,从公正的角度来看,类似案件类似处理是司法所要追求的重要目标和价值。通过抽取和拆分案件的要素,固定和提炼同类案件的裁判规则,人工智能裁判系统(如北京法院开发的“睿法官”智能研判系统、上海法院“206”刑事案件智能辅助办案系统等)能在类案裁判中统一法律适用标准,从而保障同案同判的实现。
     
      人工智能在司法中运用的愿景是美好的,事实上这也成为近几年司法审判改革的一项重要内容。在推进司法责任制改革的背景下,2018年12月5日最高人民法院印发《关于进一步全面落实司法责任制的实施意见》中,提出“各级人民法院应当在完善类案参考、裁判指引等工作机制基础上,建立类案及关联案件强制检索机制,确保类案裁判标准统一、法律适用统一。存在法律适用争议或者‘类案不同判’可能的案件,承办法官应当制作关联案件和类案检索报告,并在合议庭评议或者专业法官会议讨论时说明”。司法改革的顶层设计者既考虑到效率又同时兼顾了公正,然而此处这二者之间是内含冲突的,强制法官检索和参照类案固然可以巩固和落实形式正义价值,但是如若将类案检索设定为一项强制性的义务,则会与改革的初衷适得其反,因为如此一来非但不会提高司法裁判效率,反而会浪费大量宝贵的司法资源,无故大大增加法官的审判压力和负担。
     
      除此之外,我们不应将裁判的决定权拱手让给机器或人工智能,司法的本质在于它是一种依靠人类理性通过争辩和对话获致裁判结论的过程,在其中起主导和决定作用的永远是人。本文是司法裁判人工智能化的一个“冷思考”。笔者并不是要否定人工智能在司法裁判中的应有作用,更不是拒绝人工智能对司法过程的进入,而只是希望能够理性地审视这一事物作用于司法裁判的内在限度。同案同判是人工智能进入司法裁判所要服务的一个重要目标,但人工智能这一功用可能会被不当地放大,以至会走进一种关于同案同判的“神化”观。
     
      为此,介绍完人工智能是如何进入司法过程之后,我们将重新反思司法裁判过程的性质,笔者有三个基本判断:其一,司法在本质上是一种类推的思维活动,这为人工智能的法律推理创造了可能,无论是基于规则的推理模式还是基于案例所进行的推理均是如此;其二,司法是在一种公开的场域中进行的争辩和对话活动,因此不能完全将其还原为一种算法和数据,更为重要的对话和争辩的过程本身就是理性化(或证成)判决的过程;其三,无判断不法律,同样的道理,离开了价值判断的纠纷解决活动也很难再被合理地称之为司法裁判,换言之,评价或自由裁量在司法裁判中是不可避免的,人工智能无论在程序上设计得多么精密,也总是很难甚至无法应对价值判断的问题。基于此种对司法之性质的描述,人工智能在一定程度上有助于同案同判,其功能形态也因案件的简单或疑难有所不同。应认识到人工智能在推进同案同判目标的过程中仅起到辅助性作用,无论是“同案”的判断还是“同判”的做出,归根到底要依赖于作为法官个体的自主判断。在司法裁判中起根本决定性作用的依然只能是“人工理性”,“智能”可以简化裁判过程但不能完全将其还原为单一的模型、数据或算法,更不能将复杂的裁判事业加以简化乃至“神化”。
     
      二、司法裁判是一种怎样的事业
     
      讨论人工智能以何种方式进入到司法之中,以及将会在多大程度上影响司法裁判,有一个基本问题需要阐明,那就是要探讨司法裁判是一种怎样的事业。这个问题上升到法理的高度,其实所指向的是司法裁判的一般性质(nature of judicial decision)。在此基础上,再去观察和分析人工智能在多大意义上有助于司法裁判。法官的裁判活动依赖于一种类型化的思维方式,相应地类推也就内嵌于司法裁判的一般结构之中。与此同时,法官运用法律理由进行推理和争辩的活动,是在一个开放的法律体系中进行的。除此之外,司法裁判过程中不可避免地会牵涉价值评价和判断。所有这三点,都与作为实践活动主体的人密不可分,而人工智能至少不能较好地适应司法裁判实践的后两个属性。
     
      (一)类推与司法的本质
     
      此处追问司法的一般性质是什么,实质上是在探求人们头脑中标准式的司法是什么样的。司法(权)本质上是一种判断权,能够中立地对纠纷做出终局性判断的权力。从这个角度来看,司法的本质或目的在于定分止争,即通过推理或论辩的方式达成关于特定争议的解决方案。可以说,这是一种最常见的对于司法性质的描述。然而,笔者注意到陈景辉教授挑战了这一传统观点。[8]在他看来,能够被称之为司法性质的那个东西不仅具有一般性,而且应当是能够为法律领域所独有的。解决纠纷的方式有很多,司法只是其中的一种。并且从成本或效率的角度来考虑,与仲裁、调解等制度相比,它至少不是最低廉或最高效的。那么,如此一来,从解决纠纷的角度出发来界定司法的性质便很难获得成功,或者至少可以说它并非最佳的解释。
     
      人们可能会进一步追问,如果说司法的功能或本质不是解决纠纷,那么又可能会是什么?确实应当看到,司法的目标是多种多样的,这个集合中可能包含诸如适用法律、实现个案正义、解决纠纷、完结诉讼、维护法律秩序等内容。在陈景辉看来,这其中能够最好地彰显司法特质的莫过于“适用法律”,亦即“通过司法将法律具体化的主张”,这是因为“司法裁判最为重要的角色是指向未来的,它是以个案的方式将抽象的法律具体化,在解决特定纠纷的同时,为人们指明未来的行动标准和行为选择的恰当方向。”[9]简而言之,司法表层目的是解决纠纷,深层次的结构或独具特色的地方在于它还有更远大的抱负,即通过法律的解释和适用将抽象的规则具体化,从而为人们的行动提供具体的指南。
     
      诚然,“将抽象法律具体化”的确能够为司法与其他常见的纠纷解决方式划清界限。然而,笔者认为上述这一论断仍然不够准确。
     
      首先,一如前述,司法的目标是多层次和多样化的,通过解释和适用法律将抽象规则具体化只是这诸多目标之中的一个,如何证明这就是诸多目标中最核心的那个,陈景辉对此给出的理由并不是特别充分。具体来说,一方面,正确适用法律只是一个中间性、媒介性或工具性的目标,司法的本质所指向的应当是更深层次的、终局性的目标,就此而言司法的本质应当是通过“适用法律”来实现正当的个案裁判;另一方面,应当注意到,在司法过程中适用法律的方式也是多种多样的,演绎、类比、等置等不同的推理方式都能实现“将抽象法律具体化”,甚至这些方法中的一种或多种亦可运用于司法之外的其他纠纷解决方式,那么司法与众不同的地方到底是什么,需要进一步的证明或说明。
     
      其次,如果说对于司法性质的描述不仅仅止步于纠纷解决,而是延展至这种纠纷解决方式的特殊性,那么似乎可以对“将抽象法律具体化”作进一步的修正,即司法的本质在于通过“一种特殊的法律适用方式”在特定个案中实现正当的裁判。而正是这种独特性,才使得我们能够将司法与其他的纠纷解决方式区分开来。在笔者看来,司法过程的独特性就在于其会运用一种“判例式推理”(reasoning by precedent)或“范例式推理”(exemplary reasoning),通过个案推理的方式将抽象的法律与类型化的个案事实勾连起来,不仅可以将抽象的法律具体化,同时还能够以可以看得见、被经验察知的方式实现类似的案件类似审判。
     
      就此,我们可以得出一个初步判断,即“司法的本质”与“范例式推理”或“类案类判”是内在地联系在一起的,或者借用泮伟江的话来说,就是“通过同案同判原则所标示出来的那种先例式推理的方法、程序和过程,就是司法裁判的本质性内容”。[10]对于这个结论,笔者在这里先补充一些初步的论据。
     
      第一,就“法”本身而言,它“原本即带有类推的性质”,因为“‘事物本质’是指向类型的,从‘事物本质’产生的思维是类推式思维”。[11]当我们讨论法的本质时,必然也会将其与类型思维联系在一起。它们之间形成了一种“神”与“形”的关系,离开了“事物的本质”,法律的存在之间就难以建立起价值性的连接,从而也就无法形成一种类型;同样的道理,如果没有“类型”,那么法这个存在之间就很难获得直观的载体形式,从而也就很难被现实地予以把握。[12]借助于法所蕴含的类推力量,可以有效地消弭规范与事实之间的内在张力。在考夫曼看来,之所以如此,是因为真实的法来自于规范与具体的生活事实、当为与存在的对应,“法是一种对应,因此法的整体并非条文的复合体,并非规范的统一体,而是关系的统一性。关系统一性,对应,便意味着类推。”[13]法自身所具有的这种特质,在很大程度上决定着立法也以类型为基础。对法律规范进行概念化和抽象化的活动高度依赖于“分类”或“类型思维”,立法者通过对类型特征的提取、排列和组合来建构一种类型化的法律规范体系。[14]从这个角度讲,人们对于法的认知和理解难免也要依赖类型思维。
     
      第二,如果说立法是借助于分类来实现法律规范的抽象化,那么在法律的实现过程(亦即司法过程)中同样也渗透着类型化或分类的思维,由此可以说现代司法思维在本质上具有一种“类推”品格。[15]在普通法的语境下,这一论断似乎不成问题,普通法司法的运作所依赖的是一种“范例式的推理”,亦即一种从个案到个案的推理,这对于法律实践而言是一种必然的推理方式。[16]伯顿亦持有类似观点,他主张法律推理从根本上来看是一种类比式的推理,由于作为演绎推理之大前提的规则时常处于难以避免的不确定性,所以演绎推理难以占据支配性的地位。[17]然而在奉行法条主义的民法法系国家,这一结论是否还能站得住脚?笔者认为答案是肯定的。其理由在于,首先,简单案件中所运用的逻辑涵摄其实就是将个案事实与规范构成要件事实进行比对和归类的过程,只不过逻辑涵摄表面上遮蔽了这种类型化思维的迹象。[18]其次,在案件事实与法律规范不相适应的情形下,[19]就不能直接把具体的事实行为归纳到规范的要件事实之下,此时要做的工作就是运用等置的方法不断拉近大小前提之间的距离,从而使得新案件能够契合于同类旧案所共同依附的规范事实。[20]因此,在一般性意义上,法律适用的方法是高度类型化的。
     
      (二)在开放的体系中进行论证
     
      司法裁判不是封闭的、单向度的法律适用,而是一个开放的、对话的过程。或许,可以将这个侧面描述为司法的开放性和论辩性特征。司法的开放性,意味着法律渊源体系不是封闭的而是敞开的,裁判理由不是单一的而是多元的。无论是借助于成文形式进行表达的成文法,还是以不成文形式而存在的判例法,都时常会展现出一种“弹性的空间”,笔者将其称之为“未完成性”。在此“可能的语义范围”内,法律适用者拥有了得以解释的空间,这使得法律的适用是以一种开放的姿态进行的。与此相对,那种认为法官只需依靠简单的形式逻辑在封闭的体系中进行演绎案件结论的做法,早已被证明是荒谬的。注意到法律体系的开放性,对于我们准确理解司法过程之性质意义重大。
     
      即便是相对保守和封闭的法教义学体系,仍然也是向外伸展和开放的,绝不是完全封闭的。司法裁判所依赖的法律推理、法律解释以及法律论证,也都应是在开放的体系中展开。一如考夫曼所言,“法是某种联系的事物,它存在于人的相互关系之中,并面对物而存在。之于这种法思维,只能存在一种‘敞开的体系’,在敞开的体系中,只能存在‘主体间性’,此乃不可言喻。”[21]法律思维的这种开放性特征,根源于法律体系的开放性,加之社会案件事实的复杂多变,最终使得裁判活动的核心任务就变为如何在法律规范与案件事实之间寻求一种对应关系。
     
      在开放的体系中论证,也意味着裁判理由来源的多样化。单从法律渊源的种类来看,不仅包括成文的法律规则和法律原则,甚至还可以将一些符合一般法秩序的道德原则也包容进来。所有这些,构成了裁判可供借鉴和利用的多元理由。法官在证成判决时,其可借鉴使用的资源是多样化的,而不仅仅局限于成文法规则。相比之下,智能化裁判模式构建过程中,作为裁判推导基准的并被加以量化的往往主要是成文法规则,对于非成文的道德原则、情理、常理是很难被代码化和数字化的,这恰恰也从一个侧面突显了人工智能在进入司法的过程中所必然面临的障碍。
     
      除此之外,司法裁判是裁判者运用法律理由通过对话和论辩来证成判决的过程。论辩或争辩会时常贯穿于裁判的始终,法律自身的一个重要特征就在于它具有可争辩性。有些时候,即便是对于法条主义者而言,有时他们对于同一个法条的理解或解释也会出现分歧,“在出现不同意见的时候,几乎可以发现‘门户自立’的法条主义者都认为自己是在分析、剖解、表达、阐述一个‘正确’的观点,虽然他们有时会谦虚地宣称自己仅仅是‘可能’的正确;同样,法律实践者在对待一个法律概念、法律规则还有法律原则的时候,也是总会出现不同的意见,而在出现差异甚至对立意见的时候,他们几乎也是都在认为自己的观点、观念是‘正确’的。”[22]比如许霆案,如何理解《刑法》第264条规定的“盗窃金融机构”,学者们可能会给出彼此冲突的教义性观点;又比如说,如何理解《消费者权益保护法》中所规定的“消费者”,职业打假人到底是否属于真正的消费者,法官们对此也存在着较大的争议。“释法析理”是在争辩和商谈的过程中展现出来的,而机器很难胜任。
     
      (三)司法自由裁量权不可避免
     
      依何怀宏教授之见,最能标志出人与动物的根本差别的东西,是人之为人最特殊、也最为重要的东西,这也就是人的意识,包含了理性、感情和意志的精神意识。而就凭这一点,人就可能大大地超越于物。[23]法本身是价值评价的产物,离开评价法将难以为法,这一点已经被许多学者意识到了:“拉伦茨谈及‘要认识到:法律的应用并不仅限于(三段论的)涵摄,它在更大范围内也需要法律应用者的评价’;缪勒的观点是:‘一个没有裁判和评价的法律……(似乎)既不是实践的,也不是现实的’;埃塞尔断言:‘评价……在差不多所有疑难裁判中,均具有核心的意义’;克里勒得出的结论是,人们绝对不可能‘逃脱那些潜伏在任何解释中的评价性的、规范——目的论的和法律政策性的因素’;恩吉施也不得不承认:‘甚至在今天,法律部门中的法律本身仍然是按照下列方式来建构的:法官和行政官员不仅仅是通过固定的法律概念下的涵摄来发现和证立其裁判的,而且也立足于自己独立进行评价,间或也照着立法者的样子来作出裁判和发布命令。’”[24]从这些论断中可以看到,人们“对法理解与适用”无法脱离评价。认识法其实就是展现“对法评价”,而在实践中适用法同样也是运用价值判断的过程。
     
      如果说法律在制定之初本身就是价值判断(协商甚至妥协)的产物,是在立法者之中所形成的一种最低限度的价值共识,[25]那么法律的适用就离不开价值判断,即便是在最简单的涵摄中也蕴含着价值判断,正如魏德士所指出的,“涵摄的过程(将某一生活事实归入某一规定了相应法律后果的法律规范)总是包含着评价的要素。”[26]拉伦茨提出过类似的观点,“很多我们以往认为,只须以单纯涵摄的方法,将已确定的案件事实,归属到先经必要解释的法律规范之构成要件所指涉的事实时,已经带有价值判断的性质,或者其本身已然是一种有评价性质的归类行为。”[27]法的评价性,以及在理解和适用过程中所依赖的价值判断,构成了法之存在及运行的一个重要属性。在某种意义上,也可以说,这是以人为主体的法律实践活动的重要特性。什么是(法所蕴含或表征的)价值?价值如何进行判断?如何在相互竞争的价值理由之间进行选择或取舍?所有这些都需要依靠人类的理性去权衡(weighing),依靠经验归纳和数据法则为主要运行机制的人工智能很难完成这一艰巨的任务。
     
      由于法律(规定或表达)的“弹性空间”,导致实践中司法自由裁量权是不可避免的。自由裁量,从字面含义上看就是法官针对不确定的法律内容拥有一定解释和裁量的余地。按照德沃金的说法,大致可以区分出两个不同版本的自由裁量,一个是强版本的(strong version)自由裁量,法官设身处地地像立法者那样创设规则;另一个是弱版本的(weak version)自由裁量,法官在不超出规范目的的前提下灵活地解释和适用法律。[28]就大陆法系的法官而言,其所享有的裁量权主要是弱意义上的,并且通常是通过解释的方法来实现这一目的。这里有一个问题,自由裁量是否与法律永相伴随,抑或只是一种有限的存在?对此是存在争议的。有限存在论认为只有在法律不确定时,自由裁量才会存在并发挥作用。比如法实证主义者所主张的只有当法律内容落入语词的边缘情形中,法官才开始享有自由裁量的权利;[29]相反,另一种观点主张自由裁量权是普遍存在的,有法律之处便有自由裁量,案件判决也最终是通过解释行使自由裁量权的结果。[30]澄清这一复杂的争论显然远远超出本文的目的,这里我们关心的是这种分歧背后的基本共识:自由裁量在司法裁判中是不可避免的。
     
      也应注意到,自由裁量权的客观存在,并不意味着它的行使就是任意的,事实上它会受到一系列的限制。然而,智能化裁判的一个特征就是尽可能将裁判过程化约为一套精密的数据或算法,其中自由裁量的存在被抽空了。如陈景辉教授所指出的,“人工智能对于司法裁判的介入,基本上是通过建构模型的方式,将自由裁量或价值判断这个部分排除在外。之所以出现这个结果,表面上的原因是,作为价值判断的自由裁量是无法被人工智能以理性的方式精确模型化的,或者说它无法被弱人工智能所兼容。然而,更深层次的原因,是围绕‘价值(道德)判断的性质’所发生的争议……由于弱人工智能本身并无能力作出价值判断,因此人工智能一旦统治了审判,那么它会将价值判断彻底驱逐出去。”[31]智能化裁判所依赖的大概是法律现实主义的进路,通过消解评价或价值,将判断的过程还原或化约为一种经验、数据或事实。这种将自由裁量抽空的裁判理想并不符合司法现实,没有办法应对纷繁复杂的客观实践。尤其是面对那些具有高度道德争议的案件时,比如代孕、安乐死、同性婚姻、孝道等伦理争议,人工智能无法帮助法官在各种激烈冲突的价值和实质理由中做出衡量和取舍。
     
      三、人工智能服务于同案同判的力度
     
      通过前述对司法裁判之特性的讨论,可以发现司法的某些特质为人工智能进入裁判过程创造了可能。而与此同时,司法的其他一些特质也为人工智能进入司法裁判制造了障碍。前文已述,同案同判是司法所欲追求的重要目标,而人工智能被制度设计者当成追求这一目标的重要手段。本部分所要追问的核心问题是,人工智能将能以何种方式、在多大程度上服务于同案同判这一目标的实现。总体而言,这一力度主要体现为类案智能化检索与推送、一定范围内的判决预测以及裁判偏离的预警机制三个方面。
     
      (一)类案智能化检索与推送
     
      通过海量数据的存储,以及对同类案件所进行的打标签,再结合一定的算法规则,司法审判大数据系统会自动向裁判者推送与眼前待决案件相关或相类似的案件。当然,法官个人也可以通过自然语言或专业语言在系统中进行类案的检索。不少学者都论及了目前司法大数据自身存在的问题,“随着技术的不断革新,电子数据的防伪和校验技术不断变化,司法工作者在面对日益增长的海量信息和不断变化的技术时,难免力不从心。而实践中又缺乏专门的技术团队来确保数据的真实性,人工智能建设所依赖的数据随时都面临虚假的风险。除了数据本身的真实性难以得到有效保障外,人工智能运用分析数据的核心算法也可能存在暗箱操作的风险。”[32]何海波教授也指出了目前裁判文书公开过程中存在的一些问题与隐患,比如文书公开的全面性依然不足、公开的及时性效果欠佳、公开内容规范化程度不高,甚至还存在一些书写错误的现象。[33]可以说,类案检索与推送是一种较为初级的人工智能工作,其所发挥的也只是一种辅助性作用。
     
      但是也应注意,类案检索有时候不靠谱,机器或智能系统的判断可能会出问题,这表现为两个方面:其一,“要素”索引系统可能永远是“不够完备的”。要素索引系统只根据事先确定的要素来进行比对以确定它们是否属于同类案件,但可能存在着未被预先确定的共同要素。有可能出现一个新的案件,它并不具备案例库中任何案例的预先确定的共同要素,但它可能与其中一个案例具有其他共同特征,而这一特征会被评价为具有法律关联性;其二,更重要的是,案件的相关性不仅与共同要素的数量有关,更与对要素的法律评价有关。即便两个案件具有很多共同要素,但如果他们都不具有法律上的决定意义,那么要素再多也无意义。相反,即便两个案件差别很大,但只要具备一个具有法律上决定意义的共同要素,也可能进行类推。是否具备法律上的决定意义很多时候取决于对案件意义的整体性评价,而理解和评价案件的意义正是计算机的认识短板。[34]归纳一下,也就是说,预先设定难免会出错或出现遗漏,如果遗漏了某个或某些关键事实,后来真正相似的案件可能无法被检测到或成功地实现匹配,也有可能错误地输入了案件本不具有的事实信息,导致两个本不相似的案件被错误地“成功”匹配。另外,案件的相似性判断依赖于对关键性事实的评价,评价往往是机器无法精准做到的,相似性判断不是简单的描述或下决定,而是要着眼于事实与规范目的之间的考量和衡量。
     
      因此,类案的检索与发现只是司法裁判过程的一个前奏,真正的难题在于,当智能系统推送或自主检索到了多个可能的类案时,到底如何判断这些案件中哪些(或哪个)与眼前待决案件是真正类似的案件。
     
      (二)一定范围内的判决预测
     
      从性质上来讲,判决预测已经超出了辅助性的角色范畴,而成为决策做出的一种支配性或主导性力量。尽管最终做出决定的仍然是作为法官的人,但是这个决定有可能是人工智能系统“计算”出来的。法官所要做的一是需要检验这个推论本身是否正确,另一个则是要为这个推论提供理由加以支撑。人工智能或智能机器虽然能够自我进行“深度学习”,但是其赖以运作的整套程序设计和知识输入仍然高度依赖于人工智慧。“由于法律人工智能在算法上采取了知识图谱的半监督学习方式,这种方式的显著特点是‘有多少人工方有多少智能’”,可以说“多人工就多智能,少人工就少智能,没人工就没智能,优秀人工就有优秀智能,垃圾人工就有垃圾智能”。[35]
     
      司法的深层本质与类推联系在一起,这为智能审判通过类比推理模式解决同类案件创造了条件。通过对大量同类案件的判决书内容要素的拆分、提取和整合,归纳出裁判的一般程式和规则,便可智能化、自动化地解决同类简单案件,这便是人工智能预测判决的基本原理所在。这里笔者认为,人工智能主要能够用来解决同类简单案件,其预测作用的发挥也主要是针对简单案件而言的。一些学者乐观地认为,人工智能可以解决一部分疑难案件,剩下一部分交给人来处理。它主要是让系统学会自动地对案件进行相似性的比对,然后得出比对判断结果。[36]这种观点过于乐观了,目前的人工智能似乎还难以完成这项工作,这项相似性的判断工作主要还是依赖人工来完成,即便有朝一日我们的人工智能发展到可以智能化比对案件相似性的水平,其比对的精确性和灵活性依然是值得质疑的。
     
      “但长久以来的司法经验表明,在这一方面将人工智能适用于司法裁判时会导致问题,也会面临限制。编程可以被执行的重要条件或者说重要限制,在于程序必须足够简单,并能在许多案件中被不断重复而且没有显著的变化。”[37]简单案件的确是司法的常规情形,但是疑难案件也确实普遍存在。人工智能毕竟可能会犯错误,并不能保证其判断一定是准确的。简单案件中,法官对所要处理的那一类案件相对熟悉,对相关法律的理解和适用也拿捏的很到位,其实在这种情形下专门再使用人工智能去预测和获取裁判结果,确实有点多此一举。故而,预测判决通常仅限于简单案件的范围之内。
     
      (三)裁判偏离的预警机制
     
      伴随着最高人民法院司法责任制改革的推进,类案检索已成为法官在实践审判中不容忽视的一项重要义务。事实上,人民法院内部办案系统中,已经开放了类案检索的版块和权限,通过输入案由、争议焦点等关键词,便可检索出相似性程度高低不等的类案。个别地方法院将商业公司开发的类案检索软件嵌入办案系统,既可以方便法官自主地根据客观需要检索类案,同时还会自动推送一些关联的类案。不得不承认,大数据和智能化让案件裁判过程变得可视化,甚至还会给人带来一种更美丽的印象,即案件的裁判似乎是可以被数据化和模式化的。无论是从上述类案的智能化检索与推送,还是从人工智能可以辅助法官在一定范围内预测判决,似乎都可以直观地体现这一点。同案同判要求类似案件应该得到类似判决,这里的“同判”并不强求判决结果完全一样,而只需要达到大体一致或相似即可。故而,即便要求实现或做到“同判”,裁判者亦有一定的裁量幅度或空间。
     
      比较典型的是刑事审判,刑事立法根据罪行严重性之不同,多数时候将刑罚划定为轻重程度不等的刑期。这事实上赋予了法官一定的量刑空间,在此弹性空间内法官享有具体裁量的余地。为了实现同类案件的同判结果,同时也出于限制自由裁量权的考虑,不少刑法学者认为应划定量刑基线,但“量刑基准由于受事实和法律的不确定性影响,不可能是一个精确的数值或‘点’,在很多情况下,它仍然可能是一个幅度(法定刑为绝对确定刑的除外),量刑基准的这种幅度与法定刑幅度颇为相似,只是量刑基准幅度的‘域’的范围较为紧缩而已”[38]。白建军教授通过实证研究发现,确立一条固定不变的量刑基线是困难的,但是宣告刑的平均刑量在量刑实践中仍然是有参考意义的,只要眼前的案件与相应示范性案例(样本案件库)没有显著的差异,就应该参照该组案例的平均刑量决定刑罚。[39]正是因为此种裁量幅度或弹性空间的存在,使得刑事司法实践中出现了一种有意思的现象,所谓“差异化判决”,也就是同案不同判,类似的案件判决结果却有一定悬殊。学者认为这种差异化判决具有合理根据,其中刑罚均衡仍然存在,和欠缺均衡性的同案异判有着根本性区别。[40]这种量刑构造为人工智能预测量刑结果创造了空间,同时通过司法大数据的运算也可以确立大样本案件中的平均刑量,为实现同案同判提供参照和检验标准。
     
      与刑事审判不同,民事关系的种类更加多样,法律关系也极为复杂,审判要素的分解相对更困难一些。故而在实践中,目前较为成熟的类案裁判系统,其适用的范围仍然较为狭窄,主要是以刑事案件作为样本建立起来的,而且也无法穷尽刑法中的所有罪名,通常是有限地以刑法中的一些常见罪名(比如故意伤害、故意杀人、贪污罪等)为基础建构起来的,这些罪名的罪行和罪责要件相对确定,因而拆分和组合起来也较为容易一些。利用大数据预测刑事判决结果也容易走进一个误区,即纳入到样本库的基本上都是有罪判决,而中国的无罪判决事实上非常低以至于“趋零化”。以有罪判决样本为基础构建起来的数据库,几乎不可能智能化地预测出无罪判决。当然,这个不是本文要关注的问题。目前一些商业公司为法院开发的类案裁判系统中,有一个重要的功能是裁判偏离预警机制。法官在做出判决结果之后,可以将判决书的主要内容导入至系统中,系统会自动进行识别、运算、匹配,并和案例库中类似案件确立的裁判均值(比如刑事案件中的平均刑量)进行比较,如果偏离的差额较大(畸轻或畸重),系统会自动发出警报,警示裁判者该案判决结果与案例库中的既往案件相差较大,可以对此结果进行再斟酌。不得不承认,人工智能所拥有的偏离预警功能有助于统一裁判尺度,防止同案异判,但是同样也会导致判决多样化走向消亡。我们允许一定范围内的差异化判决,[41]这与形式正义原则并不矛盾。
     
      四、同案同判人工智能化的限度
     
      毋庸置疑,人工智能在实现同案同判目标的过程中发挥着十分重要的作用。但同样值得我们警惕的是,不宜奉行技术至上主义,简化甚至“神化”司法裁判过程,将司法化约为单纯的数据和算法。这种“神化观”认为,“把法律化约为简单的几何公式是可能的,如此一来,任何一个识字并能关联思想的人都能作出法律上的裁决。”,[42]用公式表示就是“Rule(法律规则)×Fact(案件事实)=Decision(判决)”,美国法律现实主义的先驱弗兰克解构了这一神化公式,他认为无论是作为推理前提的规则还是案件事实都是不确定的,司法判决毋宁与法官的个性以及其他主观因素(subjective facts)相关。真实世界中的司法是一个内容丰富、动态的对话过程,各参与者之间通过理性地争辩获致正当的个案裁判。职是之故,在充分尊重和发掘智能化司法之于同案同判具有重要意义的同时,也应理性地审视司法裁判人工智能化的限度,过度夸大甚至神化人工智能司法的观点不仅与司法裁判事业的内在性质相悖,而且还会误导并最终有害于司法审判实践。
     
      (一)相似性判断依赖于人而非机器
     
      贯穿于本文的讨论,对待司法人工智能笔者一直持有一种开放但谨慎的态度。现代网络科技越来越发展的社会,司法裁判系统不可能回避和拒绝人工智能,反而应科学合理地利用智能科技来推动现代司法的信息化、自动化和智能化。人工智能仅仅是一种对人工智慧的自动化延伸,通过一定的算法机制将人工智慧传输给机器。它在司法裁判过程中的定位是,仅仅发挥一种辅助性的作用,并不太可能取代法官进而扮演一种决定性的角色。恰如刘艳红教授所敏锐地指出的那样,“当前的‘司法人工智能’只是提高司法工作效率的便利工具,如语音输入取代书记员电脑打字记录、裁判文书上网以及自动识别搜索等,这种变化与书记员告别古老的手写记录没有实质区别,其他应用如海量判例筛选、辅助量刑规范化、电子取证技术等至多属于增强同案同判等人类司法智慧的AI。”[43]同案同判的核心,在于如何判定两个案件属于相似案件。如果法官可以顺利地通过这一环节,接下来实现结果上的同判就不再是一件难事了。
     
      我们所讨论的“同案”主要有两种类型,一种是简单的同案,或者说客观呈现的同案,这类案件法律关系简单、案件事实清楚,除了个别事实的细微差异(不相关不同点),几乎接近于“同样案件”(the same case);另一种是经过评价的同案,或者经过价值判断被解释为“同案”。司法实践中第二类情形更为常见和普遍,案件(事实)自己不会贴着标签,更不会主动地告诉我们说他们之间是不是类似案件。拉伦茨也指出,在对案件事实进行处理时离不开必要的判断,其至少有几种不同的形式:以感知为基础的判断、以对人类行为的解释为基础的判断、其他借助于社会经验而取得的判断、以人类理性为基础的客观价值判断以及其他情形下留给裁判者的判断余地。[44]人工智能能够胜任第一类同案的识别工作,而对于第二类经由人类价值判断诠释的同案的比对,人工智能似乎仅能发挥较为有限的作用。
     
      同案同判或类案裁判依赖的类比推理思维,在经典的关于类比推理的理论中,最重要的一步就在于判断眼前待决案件(目标案件)与先前案件(来源案件)之间是否具有相似性,即要“判断是事实上的相同点还是不同点更为重要”[45],决定何者更为重要显然要依赖于一种实质意义上的价值判断。[46]
     
      在事实区分和拆解的层面上,通过人工打标签的方式,并设定一套特定的算法规则,智能机器在海量裁判文书中进行信息抓取、分类和所谓自我深度学习,或许可以为类案相似性比较完成前提性工作。当然,针对不同类型的具体案件,其抓取和分类效果也会有所区别。对于此类案件,通过建立大样本数据库的方法会遇到不少困难,案件类型涉及的参数数量较多,关键事实中哪怕是一丁点的微妙差异,有时足以导致两个案件完全不同。而一旦进入到实质性判断的层面,必须结合法律规范的立法意旨或目的,通过理性的价值判断来权衡是相同点还是不同点更重要。这一环节无法再化约为简单的事实比对,它要求判断者要将目光往返盼顾于规范目的与案件事实之间。对此,精专于数据运算的人工智能,无法依靠所谓的算法法则来解决价值判断的难题。
     
      除此之外,无论是类案裁判系统主动推送的关联类案,还是法官自主检索到的可能类案,在数量上都不太可能是单一的,而更可能是一个复数的“案例群”,除了那些显明的简单类型的同案,人工智能所能发挥的作用似乎仅止于此,眼前案件与这些案件在实质上是否属于类案,只能依靠人通过理性的思辨来具体判断。一言以蔽之,智能化裁判的重心其实更多地放在了结果的“同判”上,而对于如何把握“同案”它并不拥有最终发言权。
     
      (二)智能化司法难以兼顾实质正义
     
      如何借助法律实现正当的个案裁判,是司法裁判以及现代法学方法的核心议题。[47]在法学发展史上,尤其是法律形式主义发展到顶峰之时,曾一度出现了所谓“机械法学”,它以自然科学化的态度来看待法律和司法,然而在一些批评者看来这种无论对社会公众还是对法律职业和教育都是有害的。因为,就机械法学观的建构过程来看并不科学,法学以及司法审判应当对社会化的和实用主义的目的保持开放。[48]夏皮罗曾将这种高度形式理性化的法学观点,提炼出四个方面的核心要素:司法自制(适用而非创造法律)、确定性(法体系完美无缺)、概念主义(概念演绎)、以及裁判的非道德性(不求助道德推理)。[49]这种理论实质上是将法律还原为概念和经验事实,将司法审判化约为一种简单的规则演绎的过程。法官在裁判过程中不得关心道德和实质评价问题,如此一来司法便成了一种道德无涉的事业。
     
      一如前述,司法裁判过程其实是一个运用法律理由进行理性争辩的过程,这里的理由显然既包括形式性理由也包括实质性理由,法律推理思维相应地也有形式推理和实质推理之分。由于法律与道德本身就具有内在的联系,法律不仅注重将义务性道德转化为法律义务,而且也开始将伦理美德的要求注入到法律之中。在此意义上,可以说司法审判不可能与道德相绝缘。法官除了受一般法律职业伦理操守的约束之外,还负有忠诚的道德义务、诚信的道德义务、批判的道德义务。[50]值得一提的是,在司法裁判中法官还有一种“doing good”或“doing justice”的特定道德义务,[51]当既有的法律规则存在实质性问题或缺陷时,司法应对实质性的价值判断和解释保持开放。在最近几年我国司法实践中频发的争议案件中,比如深圳鹦鹉案、河南大学生掏鸟窝案以及天津赵春华气枪案等,为什么法院的判决难以为当事人及社会公众接受,甚至个别案件的判决被认为是荒唐的,很重要的原因就在于法官(法院)只关注形式规则的演绎推导,而忽视了规则背后的立法目的和社会价值,从而最终导向了机械性司法。
     
      从这些频发并被公众反复热议的案件中,可以体现出法官在裁判中施展的(真正理性且客观化的)价值判断不是太多而是太少了,机械适用法律的情形不是太少而是太多了。用人工智能的语言来描述机械司法,即是“法律可以作为一种公理,法律推理就是一种纯粹演绎”。[52]当司法遭遇并积极拥抱人工智能时,我们很容易被这种热情或激情带入一个误区,即司法裁判可以实现计算机化和自动化,甚至法官可以被机器人所替代,“将案件事实投入到司法的自动售货机一端,通过运用机械逻辑另一端就会输出判决。”[53]这种过分夸大人工智能之功能作用的观点,其实是在深层次不了解司法的独特价值评价架构。不是所有的法律语言都能还原为自然语言,尤其是那些评价性概念、本质上具有可争议性的概念如何用自然语言来表达,又如何进一步转化为标签数据,都是人工智能将不得不面对的难题。
     
      在应对价值或评价的问题上,智能司法通常采取两个选择:其一,回避价值判断的问题,诉诸形式逻辑和演绎法则,这无疑又会回到机械法学的老路上来;其二,采取化约论的思路,将价值或评价的问题化约为一种事实,相应地价值判断转化为一种事实判断。无论采纳何种方法,最终结果都是将价值判断加以消解,司法裁判变成了一种价值真空的状态。司法裁判是一种实践理性和智慧的运用,抛去那些主观因素的考虑、法外后果的考量不说,法律条文的适用背后潜藏着法官的客观化价值推理和判断。正如某些研究法律人工智能的专家所指出的,“一些人可能会争论某些案件为何最终以这种而非那种方式被裁决,这些案件的裁判会涉及到人类的一般性常识和智慧、早先的先例以及有关公正的观念等,而这其中的大部分内容都已超越了AI的能力(capacity)。”[54]实践中很有可能出现的问题是,某些案件判决的做出是规则之外因素实质上促成的,那么让人工智能来还原这些评价性要素是很困难的。更进一步,当既往类案在内容上(裁判规则和判决理由)存在严重实质性缺陷时,智能化裁判依然会通过简单复制过去的判决实现结果意义上的同判,然而我们应追问这样的同案同判还是否具有可欲性(desirable)。
     
      形式正义固然是司法所应尊重的重要价值,在具体的个案裁判中法官在道德上没有义务去重复过去的某个错误性或有重要缺陷的判决。实质正义这个要求开始变得重要起来,在当下这样一个弱人工智能司法(典型的特征是人工缺失和智能不足)的裁判局面中,它确实能够推进简单类案的判决统一,甚至可以提高裁判效率、节省司法资源,从效率的价值上来讲它与实现“速裁”的司法裁判目标是内在一致的,当然在这一部分案件中效率和正义(形式正义)两种价值是通常可以做到兼顾的。然而一旦遇到疑难案件,智能化裁判要么会失灵,要么会机械地推导出不合理的裁判结论。在此情形下,效率与实质正义两种根本价值发生了冲突,要么根本无法实现同案同判,要么表面上所实现的同判其实并非是在真正实质意义上具有可欲性的同判。
     
      简而言之,智能化司法有助于实现简单类案的同判,对于复杂疑难案件由于需要借助于实质性的价值衡量、解释和判断,人工智能往往容易导向一种机械化司法,最终可能会走向实质正义的对立面。值得一提的是,这里隐含着一个悖论:裁判者其实最期待人工智能能够对疑难案件的裁判提供帮助,而人工智能在现实中通常只能在简单案件的裁判中真正发挥作用。尽管如此,法官们经常处理自己领域内的简单案件,对这类案件的裁判已经积累了较为成熟的经验,并确立了较为稳固的裁判规则,反而倒是不需要人工智能来辅助审判。事实上,当下中国司法责任制改革,将类案检索强制设定为一项司法义务,其实就走进了这个怪圈和误区。如此一来,非但不会简化裁判过程和提高司法效率,反而会加大法官的工作负担,让本来简单的司法过程变得愈加复杂起来。与此同时,在追求同案同判的目标中,能在多大程度上兼顾实质正义也是一个非常令人值得怀疑的问题。
     
      (三)无法面对理论争议与法律的可争辩性
     
      以上两点主要是围绕司法展开的,现在我们将回到法律自身来讨论。可以思考的问题是,法律自身会对智能化司法提出何种限制以及制造何种难题。在笔者看来,进入到司法层面的个案争议可以被剖析为三个层面:第一个层面是关于案件事实的争议,即对究竟发生了什么事件所产生的争议,法学理论中的客观真实与法律真实之争就是围绕这一点展开的。进入到诉讼中的事实或多或少都是经过解释或评价的事实,人工智能的专长即是善于进行事实的拆解和标签化,对这个层面的争议似乎很少能够给人工智能制造根本难题;第二个层面是法律争议,主要围绕规范的语义内涵、规范之间的内容冲突等所展开的,无论是通过解释澄清含义还是化解冲突,都一定程度地依赖于价值的考量和判断,这无疑会给智能化司法提出了挑战;第三个层面是法律规范背后的价值争议,争议各方之间所要维护的价值发生了冲突,比如说户籍登记机关拒绝为当事人办理姓名登记所引发的诉讼中,表面上看是对于在法律上是否认可某个姓名发生了争执,其实背后所展现的是户籍登记机关的行政管理秩序与公民创设姓名的私法自治价值产生了冲突。这个层面的价值争议,将会从根本上挑战和限制智能化司法的作用空间。
     
      我们先来看第二个层面的争议,即由于语言自身的原因,比如说语义具有语境依赖性(context-dependent),同时语言不可避免具有模糊性,甚至法律在一定程度上必然是模糊的,[55]这共同导致了法律在个案中提供的指引会出现中断,甚至在遭遇一些新的事实或行为类型时这种指引会用尽。于此,司法中法律的适用便会呈现出程度不等的疑难。哈特曾经对这种开放性结构提出过警告:“我们把开放文本,视为人类语言的普遍特征。为了使用包含一般化分类语汇的传播形式来传达事实情况,边界地带的不确定性是我们必须要付出的代价。”自然语言,不可避免地有着开放性结构。[56]面对这样一种现实,我们应理性地认识到,我们是人而不是神,我们生活在一个具有无限不确定的世界中,立法者无法事先预定好未来会发生的所有事实组合,生活中总是会有一些预想不到的模糊和不确定情形发生。
     
      举一个简单的例子,《婚姻法》第22条规定“子女可以随父姓,也可以随母姓”,看似一个较为清晰的法律规定(命题),在遭遇社会事实时可能会变得模糊和复杂起来。比如,实践中出现了在父姓和母姓之外创设第三姓的做法,这种行为是否违背了上述规定,似乎是不确定的。用AI的语言来说,“如果某个系统添加了此前不属于该系统的新要素,那么该系统就可以被称作是开放的。具体体现为两种情形,存在无规范适用的案例以及法律语言出现模糊性。”[57]无论是哪一种情形,法官所面临的法律都呈现出了一种不确定性。通过法律解释的方法澄清法律规范的真实含义,无疑需要依赖和借助于解释者的价值判断,其判断的基础和核心是法律规范背后的立法目的或意旨(point)。设想这样一种情况,数个事实上相似的类案对同一个法律规范采取了数种不同的解释,从而做出了数种不同的裁决,伴随着类案样本库的扩大,智能裁判系统可能会按照不同判决的概率高低来预测待决类案的结果。如果这种经验还原和概率判断的方式可以看做是AI解决法律不确定的一种方式,这显然是一种随机正义(random justice),本质上与抛硬币或掷骰子并没有什么两样。对于落入开放性结构中法律的具体化和明确化,还原的方式会将复杂的价值问题简单化,样本数量的无限扩大虽能缩小误差,但并不能保证实现真正意义上的同案同判。
     
      其次,让我们回到理论争议(theoretical disagreement)上来。实践中,人们对于某个法律命题是否为真存在争议,这就进一步转向对法律命题背后的理论根据进行争论,德沃金将这种实质性的分歧称之为理论争议。[58]理论争议是最核心、最深层次的争议,它能将实践参与者对法律的最根本分析展现出来。而且,理论争议本质上是一种实质争议、价值争议。理论争议完美展现和诠释了法律的“可争辩性”(arguable),“意味着通常我们总是要基于一定的标准来进行争辩,那么离开了统一的标准,可争辩性也将不复存在”[59]。法律争辩的最高层次,便是对法律背后的根本价值存在分歧。仍以上述姓名权争议为例,在涉及第三姓的案例类型中,实践参与者所争辩的是《婚姻法》第22条背后的两种价值根据,一个是户籍登记机关追求的行政管理和社会秩序,另一个则是姓名权人的自主决定、变更和使用姓名的自由,说到底这是秩序与自由、公权规制与私法自治之间的冲突和抗衡。解决价值争议无法依靠经验事实归纳和形式逻辑演绎,只能通过理性的价值争论和判断。为此,对于如何面对法律的可争辩性难题,人类的有限理性和智慧都会经受不小的打击,就更不必多提人工智能了,那将是一项难以挑战的任务。
     
      最后,在处理同案同判的问题上,智能化审判系统更多地是追求一致化甚至高度标准化的“同样”判决。然而,即便将同案同判尊奉为一项不可放弃的法律义务,也必须承认差异化判决在实践中是客观存在的。这其中既有正当的差异化判决,也有不正当的差异化判决,对此前文曾有所提及。这里笔者关注的是,当类案库中的“前案”在内容上存在实质性缺陷时,AI系统能否拥有一定的价值识别和道德推理能力,自动对前后案做出实质性不同的判断,是一个颇耐人寻味的问题。与此相关的是,是法律(推理)的可废止性(defeasible),意指“如果新增的信息被考虑,那么结论的状态可能会发生改变。根据新增的事实、规则等知识,一个被证成的结论能够变为一个不被证成的命题。也就说,初始结论可以被新增信息所击败。”[60]规则出现冲突或例外情形是引发可废止性的主要理由,由于缺乏实质性的判断能力,智能化司法根本上无力面对法律的可废止性。正如一些学者所指出的,“在推理过程中,‘开放性结构’特性的出现,其所带来的问题通过人工智能通常难以解决,人们一般认为这类问题只有依靠人才能获得解决。”[61]所有这些不可避免会导向一种“智能司法不智能”的状态。人工智能无法触及法律的理论争议,无力应对法律的可争辩性难题。对于涉及实质争议和价值分歧的疑难案件,实现同案同判从根本上仍然深深依赖于人类的固有理性和智慧。
     
      结  语
     
      在人工智能时代,司法审判事业在迎来机遇的同时也经受着不少考验。很多论者着眼于探讨人工智能可能会给法理论与司法审判实践带来何种挑战,在这方面产生了不少真知灼见。对于司法中人工智能的讨论,可谓喜忧参半,本文主要采取的是一种怀疑论的进路。为展示对待这一问题的基本立场,笔者尝试将上文讨论凝结为几个简要命题,供读者参考和批评:
     
      第一,以往关于司法人工智能的讨论更多集中于外在层面,本文则从内在视角切入,剖析法律自身的属性以及司法裁判的一般性质。司法裁判的特殊性,会在很大程度上限制人工智能的进入,在某些特定的议题上(比如实现同案同判)甚至会严重阻碍其作用的发挥。从法哲学的角度,审视法律及司法裁判的特殊性,为限制人工智能不当地进入司法、滥用乃至异化提供了一个绝佳视角。
     
      第二,司法裁判是一项复杂的事业,人工智能的发展方向与其背道而驰。现代司法面临着双重复杂性,既有内部审判过程的复杂性,又有外部政治和社会环境的复杂性。智能化司法采纳了一种还原简化的逻辑,其目标是要简化司法裁判程序,“将司法程序简化(为了最终使其标准化并转译为软件程序、甚至算法)的一个主要危险在于会‘遗失’实际案件的相关复杂性,由于程序无法抓住或处理此种复杂性,结果导致裁判的不准确或不适当。”[62]
     
      第三,司法的核心在于以人之理性为基础的价值判断,而人工智能的运作逻辑是消解价值判断。司法审判是在一个开放的场域中进行价值判断和争辩的过程,法律自身的不确定性和未完成性常常使得司法审判呈现出一种可争辩的结构。智能化司法更多地在一种单线性的维度内运作,不仅如此它要么彻底抽空价值判断,要么以事实判断替代价值判断。就此,它从根本上扭曲了司法审判事业的整体图像,因而难以像人们所期待的那样在案件流水线上畅通无阻地智能化运转。
     
      韦伯在反思形式理性法时提出过“自动售货机式法官”,这个隐喻时常仍在我们耳旁不断回响。时至今日,法律的不圆满性以及社会事实的复杂多样性,不断向我们证明应当以一种更加谨慎、理性的态度“认真对待司法”,“认识到人与智能机器之间存在本质区别,不论机器是否能够独立完成某些特定任务,这些任务也不应放手交给它们去做。”[63]司法裁判应对法律、道德以及伦理等实践理由保持开放,尤其在复杂、疑难案件中更是要诉诸实践理性判断。在实现同案同判的重要目标上,智能化审判可以发挥非常有限的作用。那种试图通过人工智能系统强求同案同判的做法,非但不能实现真正的个案正义,反而会制造大量的错判误判。如此一来,最终的结果,便会走向一种不受理性限制的机械司法。

    【作者简介】
    孙海波,中国政法大学比较法学研究院副教授,法学博士,北大法律信息网签约作者。
    【注释】
    [1]参见马长山:《人工智能的社会风险及其法律规制》,《法律科学》2018年第6期。
    [2]参见何怀宏:《何以为人人将何为——人工智能的未来挑战》,《探索与争鸣》2017年第10期。
    [3]See Bruce G. Buchanan & Thomas E. Headrick, Some Speculation about Artificial Intelligence and Legal Reasoning, Stanford Law Review, Vol.23:1,p.40-62(1970).
    [4]See L. Branting & J. C. Lester, A Framework for Self-explaining Legal Documents, Proceedings of the Ninth International Conference on Legal Knowledge-Based Systems, p.77-90(1996).
    [5]参见冯洁:《人工智能对司法裁判理论的挑战:回应及其限度》,《华东政法大学学报》2018年第2期。
    [6][荷]阿尔诺·洛德:《对话法律:法律证成和论证的对话模型》,魏斌译,中国政法大学出版社2016年版,第4 页。
     
    [7]See Kevin D. Ashley, Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age, Cambridge University Press, 2017,p.3-5.
    [8]参见陈景辉:《同案同判:法律义务还是道德要求》,《中国法学》2013年第3期。
    [9]同前注[8]。
    [10]泮伟江:《论指导性案例的效力》,《清华法学》2016年第1期。
    [11][德]阿图尔·考夫曼:《类推与“事物本质”:兼论类型理论》,吴从周译,学林文化实业有限公司1999年版,第43、45页。
    [12]参见周光权:《类型思考与中国法学研究》,《中国社会科学评价》2015年第4期。
    [13]同前注[11],第41页。
    [14]参见[德]卡尔·拉伦茨:《法学方法论》,陈爱娥译,商务印书馆2003年版,第340-341页。
    [15]参见魏治勋:《论现代法律思维的类推品格》,《东岳论丛》2009年第5期。
    [16]See Edward H. Levi, An Introduction to Legal Reasoning, The University of Chicago Press, 1949,p.1-2.
    [17]See Steven J. Burton, Comment on “Empty Ideas”:Logical Positivist Analyses of Equality and Rules, The Yale Law Journal, Vol 91:6,p.1142-1146(1986).
    [18]参见朱良好:《从逻辑涵摄到类型归属》,载陈金钊、谢晖主编:《法律方法》(第10卷),山东人民出版社2009年版。
    [19]参见郑永流:《法律判断形成的模式》,《法学研究》2004年第1期。
    [20]参见[德]卡尔·恩吉施:《法律思维导论》,郑永流译,法律出版社2004年版,第60-62页。
    [21][德]阿图尔·考夫曼、温弗里德·哈斯默尔:《当代法哲学与法律理论导论》,郑永流译,法律出版社2002年版,第146页。
    [22]刘星:《怎样看待中国法学的“法条主义”》,《现代法学》2007年第2期。
    [23]同前注[2],何怀宏文。
    [24][德]罗伯特·阿列克西:《法律论证理论》,舒国滢译,中国法制出版社2002年版,第8-9页。
    [25]参见许德风:《论基于法教义学的案例解析规则——评卜元石:“法教义学:建立司法、学术与法学教育良性互动的途径”》,载田士永等主编:《中德私法研究》(第6卷),北京大学出版社2010年版。
    [26][德]魏德士:《法理学》,丁晓春、吴越译,法律出版社2005年版,第301页。
    [27]同前注[14],第2页。
    [28]See Ronald Dworkin, The Model of Rules, The University of Chicago Law Review, Vol.35:1,p.14-46(1967).
    [29]See H. L. A. Hart, Discretion, Harvard Law Review, Vol.127:2,p.652-665(2013).
    [30]参见孙海波:《不存在疑难案件?》,《法制与社会发展》2017年第4期。
    [31]陈景辉:《人工智能的法律挑战:应该从哪里开始?》,《比较法研究》2018年第5期。
    [32]程凡卿:《我国司法人工智能建设的问题与应对》,《东方法学》2018年第3期。
    [33]参见马超、于晓虹、何海波:《大数据分析:中国司法裁判文书上网公开报告》,《中国法律评论》2016年第4期。
    [34]同前注[5]。
    [35]左卫民:《关于法律人工智能在中国运用前景的若干思考》,《清华法学》2018年第2期。
    [36]See Anne von der Lieth Gardner, An Artificial Intelligence Approach to Legal Reasoning, The MIT Press, 1987,p.59-60.
    [37]同前注[5]。
    [38]周光权:《量刑基准研究》,《中国法学》1999年第5期。
    [39]参见白建军:《量刑基准实证研究》,《法学研究》2008年第1期。
    [40]参见周少华:《刑事案件的差异化判决及其合理性》,《中国法学》2019年第4期。
    [41]See Norman C. Gillespie, On Treating Like Cases Differently, The Philosophical Quarterly, Vol.25:99,p.151-158(1975).
    [42]Frank Jerome & Brian H. Bix, Law and the Modern Mind, Routledge, 2017,p.5.
    [43]刘艳红:《人工智能法学研究中的反智化批判》,《东方法学》2019年第5期。
    [44]同前注[14],第165-177页。
    [45][美]伯顿:《法律和法律推理导论》,张志铭等译,中国政法大学出版社1998年版,第49页。
    [46]参见孙海波:《“同案同判”:并非虚构的法治神话》,《法学家》2019年第5期。
    [47]同前注[14],第18-24页。
    [48]See Roscoe Pound, Mechanical Jurisprudence, Columbia Law Review, Vol.8:8,p.608-609(1908).
    [49]参见[美]斯科特·夏皮罗:《合法性》,郑玉双、刘叶深译,中国法制出版社2016年版,第311-314页。
    [50]Jason E. Whitehead, Judging Judges: Values and the Rule of Law, Baylor University Press, 2014,p.3-9.
    [51]Raymond Wacks, Judges and Moral Responsibility, in Wojciech Sadurski ed.,Ethical Dimensions of Legal Theory, Rodopi, 1991,p.111-120.
    [52]同前注[36],第19页。
    [53]Jerome & Bix, Law, p.223.
    [54]同前注[36],第9页。
    [55]See Timothy A. O. Endicott, Vagueness in Law, Oxford University Press, 2000,p.1-2.
    [56]参见[英]哈特:《法律的概念》,许家馨、李冠宜译,法律出版社2006年版,第123-124页。
    [57]同前注[6],第17-19页。
    [58]See Ronald Dworkin, Law’s Empire, Harvard University Press, 1986,p.3-6.
    [59]同前注[30]。
    [60]同前注[6],第22-23页。
    [61]同前注[36],第14页。
    [62]Michele Taruffo, Judicial Decisions and Artificial Intelligence, Artificial Intelligence and Law, Vol.6,p.319(1998).
    [63]Joseph Weizenbaum, Computer Power and Human Reason: From Judgement to Calculation, W. H. Freeman & Company, 1976,p.x.

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码