裁判人工智能化的实践需求及其中国式任务
2018/6/19 8:26:18 点击率[105] 评论[0]
【法宝引证码】
    【学科类别】人工智能
    【出处】《东方法学》2018年第2期
    【写作时间】2018年
    【中文摘要】计算机科学在与法学结合的道路上,一直试图将司法流程中的裁判环节以计算机模型化的方式表述出来。只是已有的不成功模型说明了将法官的推理裁判过程降格为简单、可重复、固定、先验但同时又需包罗万象的逻辑模型,可能是个片面误导性的做法。因此,在司法裁判人工智能化的研发进程中,需要斟酌的不仅是技术上的障碍,还应考虑法官的接受度和实际效用。这虽是一个极其复杂而困难的问题,但却是裁判人工智能化应用研究的起点。
    【中文关键字】人工智能;决策辅助;自由裁量;司法裁判
    【全文】

      近些年来,“人工智能”的话题持续发酵。尤其是在互联网、大数据、脑科学等新理论技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同等新特征。相关学科发展、理论建模、技术创新正在引发链式突破,整体推动各领域从数字化、网络化向智能化加速跃升。在国务院办公厅印发的《国家信息化发展战略纲要》中,明确提出将“智慧法院”的建设列入国家信息化发展战略,过去的2016年中,“智慧法院”的相关工作部署已紧锣密鼓地推开,[1]2017年4月20日,最高人民法院印发《关于加快建设智慧法院的意见》,提出以信息化促进审判体系和审判能力现代化的总体要求。在最高人民法院的强力推动下,地方各级法院也纷纷启动了“智慧法院”的探索工作。不过一方面,虽然法院一直在试图将人工智能引入办案系统,但如何根据现有基础研究的成果,技术研发的不同特点,寻求智能系统切入司法领域的突破口,仍是司法实务界和法学研究领域尚在探索的前沿问题;另一方面,新闻舆论却又总喜欢用“机器参与司法审判”“机器人法官”[2]等字眼来概括和描述目前司法智能化工作,极易引发公众对司法裁判人工智能化这一问题的认知偏差。事实上,以现在人工智能处理司法过程问题的技术水平来看,讨论人工智能是否有取代法官裁判的可能性,并没有根据也没有必要。
     
      笔者认为有必要区分两个不同面向的问题,即裁判人工智能化的可能性,以及裁判人工智能化的必要性。这两个不同问题,其实是代表了两种不同取向的研究,即以学术研究为导向和以应用为导向的人工智能化路线。前者要证明的是人工智能可以或者可能实现法官的推理,甚至哪怕只是推理的一个片段。其目标似乎只是想看看智能技术在与法学结合的道路上能走多远,它可以是个人的、主观的;但如果我们的目标是创造出一个可操作的,具有实用价值的系统,那么仅以上述学术研究为导向的方法论可能就不够了。因为这并非纯粹是一个自由选择或是个人偏好的问题,而是需要决定哪一种技术方法可能会最大限度地贴合司法实践中的操作。法官在判案时是否真的需要人工智能的辅助?系统实际使用者的真实需求又是什么?这是一个极其复杂而困难的问题,但也应是裁判人工智能化应用研究的起点。在笔者的另一篇文章已集中讨论了机器在模拟司法裁判上的技术缺陷和问题,[3]笔者将会继续结合国家对于整个司法结构与功能的预设,来讨论人工智能切入司法裁判的需求背景以及可能出现的发展方向。
     
      一、裁判人工智能化的需求背景
     
      (一)“决策辅助”的先决条件
     
      司法裁判是一项高度复杂的工作,无数的法学家们在这个领域倾注着脑力竞赛。在司法领域的核心词汇一般如,“正义”“合理审慎”以及“犯罪意图”等,都来自于人们的日常生活。而且,在法律推理的过程中,还涵盖了多种认知技能,如评判事实、条文解读、类比推理以及辩证思考。除了复杂性以外,司法裁判的另一特点就是其社会影响力。个案中涉及的利益、情感以及最终的裁判结果,都会影响到整个社会对司法工作人员的整体印象,以及社会对司法系统的看法。
     
      司法活动的这些特点表明对它的研究和应用需采取谨慎的态度。虽然已有不少人工智能的研发目标定位在“决策辅助”,即由计算机自动组织和协调多个模型的运行和存取,处理数据库中的大量数据,提高数据加工深度,从而达到辅助使用者决策活动目的。但若仔细推敲,之所以使用决策辅助,除了该系统本身技术可靠外,还应产生“决策辅助”的需求,这包括以下两个条件:
     
      1.使用者清楚地意识到有寻求“决策辅助”的必要(又可以细分为以下两个方面)(1)决策环境复杂
     
      (2)因专业知识不足等多种原因难以形成决策。
     
      2.使用者有从该“决策辅助”系统获取信息支持的强烈动因其实日常生活中的多数情况下,我们都在不断地决策,但真正需要寻求决策辅助情形并不多见。例如,我们都有过因出门担心下雨而犹豫是否需要带伞的经历,在自己没有专业气象知识,无法通过观测天象来预测的前提下,便会寻求天气预报的帮助以辅助决策。但请注意,这只是“决策辅助”存在的必要条件(即前述的第一个条件)。因为假如我们选择开车出行,且上下车的过程都可以排除下雨的干扰(如在室内停车场完成),那么即使今天真的会下雨,我们也不太会关心天气预报中预测下雨概率的准确性,此为上述的动因条件(即条件二)。
     
      (二)法官判案是否需要“决策辅助”
     
      我们同样可以通过这两个条件来观察人工智能“辅助决策系统”在司法裁判领域的境地。对于第一个条件,司法裁判中的确会产生复杂的环境,而且作为解决社会纠纷主体的司法裁判,往往也不可避免地会成为社会舆论的焦点。不过需要思考的是,究竟是什么原因使法官难以形成决策,是因为专业知识的不足,还是其他的原因?如果以计算机系统取代或辅助法官决策,能否解决上述问题?
     
      一般说来,法官在形成决策前,大致会经历下列4个步骤的过程:(1)确定裁判的目标;(2)罗列可实现目标的裁判方法;(3)对可能采取的每一种裁判方法的后果加以评估;(4)作出最能实现目标的选择。其中第一和第三个步骤,往往是司法工作中的实践难题,也是法官最需要寻求决策支持的,但也恰是人工智能“决策辅助系统”最难介入的部分。很多案件之所以难以决策,并非仅仅是因为法律上的疑难,还可能包括社会影响大、公众关注度高、当事人请托关系、领导批示或者“胡搅蛮缠”以上访相威胁等,即案件的困难虽然并非源于法律本身的理解与适用,但仍然会成为实际办案法官眼中的“疑难案件”。
     
      以“泸州继承案”“许霆案”等民意案件为例,若从阿列克西关于“内部证成”的观点来看,法院的判决都具有充分的事实依据和法律依据,没有明显的迹象表明法院的审判过程和判决结果出现了差错。但在法院外部,人们质疑法院判决的理由明显超出了现行法律制度的约束范围:当人们需要对司法裁判评头论足的时候,往往会借助于一个“更高”的标准,这些标准经常会化身为一些“法理原理”,如“公序良俗”“公共利益”等。以“道德”的名义宣称判决违背法理,不符合法的道德品性等论调,突出显示阿列克西的“外部证成”的性质。这种话语体系在不断质疑和责问法院工作和司法制度的过程中展现出强大威力,使得人民群众对法院的信任度以及法院的满意度也随之降低,同时也使得法官越发难以形成决策。对于此类社会关注度大的案件,如何界定“社会效果”便是法官在形成裁判之前所要面对的一个难题。[4]“社会效果”的评价体系有着许多概念上的困难:“一是哪些是社会效果——范围不确定导致法律效力规则多极化。二是谁来评价社会效果——主体不确定导致司法四面招架。三是如何比较两个社会效果的轻重缓急——标准不确定导致人为操作裁判。四是社会效果和法律效果冲突时如何取舍——取舍原则不确定导致法律妥协。”[5]正因为评判案件的标准是一个相对开放(有时甚至是比较混乱)的领域,因此法官才不得不相当多地依赖其他非法律的材料和信息。
     
      当裁判目标不确定以及裁判结果评价标准模糊的情况下,法官面对的问题是裁判的成本和风险极大化困境:一方面,法官需要提前进行大量的思考,对信息进行筛选和评估;另一方面,在裁判作出后,所有的结果便转化为依附于法官个人身上的高强度压力。也就是说,法官决策前后负担都很高。而这种决策模式的特点就是极不稳定,除非决策成本的产生实际上是有意义的,并且决策最后会以很好的方式结尾,否则这种模式下的个体或机构就非常容易崩溃。[6]
     
      (三)寻求决策辅助的途径
     
      当法官意识到存在决策困难或风险之后,接下来问题便是如何寻求决策辅助。由于涉及决策责任的最终承担,故寻求决策辅助的方式和途径也是值得仔细考虑的。只有对法官裁判行为背后隐蔽的秩序力量保持足够敏锐,准确地理解法官“在A与B两种行为选择之间的偏好,了解这些偏好究竟植根于何处”,[7]才不至于在探讨人工智能究竟能为法官决策提供何种辅助的问题上毫无头绪。
     
      一份法院判决不仅是承办法官依据显性规则裁判的结果,同时也是其依据非正式隐性规则裁判的结果,而后者从来就不会明文写入判决的依据之中。[8]所以对于期望对裁判过程提供智能化辅助的研究来说,就有必要先辨识办案法官个人在某个具体案件情境中和法院系统层级中的能力范围,并试图理解该情境和系统会如何对其个人产生影响。社会心理学的大量资料能佐证,在特定情境下,来自外界的系统性力量会远远胜于法官个体本身的努力,并且这种系统所展现出来的情境力量,左右个体行为方式的能力远超出我们所想。很多时候,我们只是简单地把某些错案件中的法官追责定性为“失职”或“贪污、腐败”,却会忽略让这些法官办“错”案背后的更大动力,一种由更复杂、更强大的动力所创造出来的情境性力量。
     
      当法官意识到决策风险的存在时,便可能会开始转化到另一种特殊的思考方式:尽量避免犯错,努力使其作出选择时的负担以及犯错误的可能性最小化。“司法者和任何公职人员一样,乐于使用最方便的程序处理事务。在有法条或成例可循的情形下,故意另寻蹊径为其判决另找依据,不仅自找麻烦,而且可能导致上控,使自己受到责难。”[9]
     
      常见的处理决策负担方式便是委托,将该决定委托其他人去处理。例如日常生活中,人们可能会依靠配偶或朋友来代替他们决策,或挑选一个制度化的安排,通过该制度安排,其中的某些决定就可以由此前已经设立好的机构作出。委托是一种能够减轻委托人在作最后决策之前所承受负担的一种策略。当然这种减轻是通过将负担转移到委托人身上来达到目的。而对于委托人来说,或拥有特别的信息,或缺乏相关的偏见或动机方面的问题,又或者他们不介意(甚至有可能喜好)对拟议中的决策承担责任。
     
      但什么时候委托,以及委托给谁,是需要斟酌的问题。因为如果委托决策的对象是一个值得“信赖”的受托人或受托机构时,那么委托行为就几乎没有什么压力,甚至可以给最后的决策带来自信。但如果受托人和委托人存在某种牵连关系,甚至被证明是倾向于犯错误的,那么其他的策略化行为就会取而代之。
     
      实践中回避决策风险的一种典型方式便是“请示”。[10]“因为一个人在一个群体中争取获得承认的努力大部分是由该群体中高度受尊敬的成员的赞同而得以推动的。因为他们对于他的赞同意见影响了其他人的意见,因而具有一种增值作用。”[11]虽然在现行的宪法、人民法院组织法和三大诉讼法中,都只规定了上级法院对下级法院的监督权,但作为司法实践中“土生土长”的习惯工作方式却因此享有滋生的土壤。[12]法官遇到“拿不准”的问题时,就会向审判长以及合议庭其他法官汇报,包括向副庭长或庭长以及庭务会请示。当在业务庭一级不能“拿捏”时,案件就会向副院长或院长汇报,进而纳入到审判委员会集体讨论。[13]有些问题审判委员会也讨论不出结果,或者虽有结论,但为慎重起见,会向上级法院请示汇报。
     
      相应地,法官向“决策辅助系统”寻求信息支持的动力不大的关键原因也就在于,“决策辅助系统”其实并没有帮助法官脱离责任承担的主体范围,法官也不可能通过主张自己是使用了“决策辅助系统”而免除将来可能要承担的裁判风险。
     
      二、人工智能与司法裁量权
     
      司法裁判人工智能化另一个值得斟酌的主题是与司法裁判裁量权的对接。该主题的问题又可以细化为两个小问题:计算机程序要求简单化、明晰化的设计属性与法官的裁量权如何协调;使用计算机程序规范法官的裁量权是否合适。
     
      (一)计算机程序与法官裁量权的对接问题
     
      目前已有的研究正在考虑根据计算机模型对法院的某些程序进行标准化。[14]此类研究的主要目的是通过计算机设计程序以方便法院实施一些更加快速、经济的管理流程。其基本理念是:让计算机程序与实际流程对接,从而使计算机根据司法流程创建、实施程序。只需在个案中输入一些数据,就可以得出结果。不过迄今取得的经验显示,以这个角度研究司法程序人工智能运作的问题还相对突出,研究的推进其实遇到了瓶颈。
     
      其中的瓶颈在于,在计算机的程序设计中不宜带入过多的裁量内容,或不应将其放在系统的核心地位。[15]因为从程序的可管理性要求出发,需要所设计的程序简单,且可以被反复试用,不能携带太多的变量。简单、重复度高以及使用频繁的程序在行政领域、私人组织以及公共机构等几个领域都很容易找到,如地铁、火车进站前的票据真伪查验,或者停车场的计时收费等。这些程序中由于需要考虑的步骤数量少,中间的自由裁量空间不大(或几乎没有),因而就容易把这些流程以智能化的方式代替。换句话说,在这种情况下适用计算机程序是最为有效且合适的。
     
      而当程序中出现裁量空间的时候,就必须对可能出现的替代性选择(且选择数量必须是有限可控)作出排列:在一个给定的选择节点上,一个程序可以在不同程序路径上运行。那么就有必要提前知道,会出现哪些可以被执行的路径,以便提前将其嵌入程序中。如果在程序中,类似的选择只有两三个,甚至几乎没有“选择点”,程序会运转得更好;相反,如果“选择点”保持“开放”状态,那么每个“开放”的节点就意味着系统效率的低下,因为它需要使用者的亲自介入来考量自己的特别需求。因此,必须事先定义每个选择点和所有可供选择的替代方案,以便使所考虑的程序完全形式化。
     
      在司法领域中虽然也存在简单、重复和频繁的情形,但不幸的是——他们既不是最常见的,也非“正常”的部分。在多数的司法案件中,即便是简单的案件,想要实现这样的标准化也是非常困难或不可能的。因为案件的简单与否并非是先验的,而是取决于法律对于该司法程序的价值设定。例如,债务清偿可以非常简单,也可能非常复杂,这取决于裁判者的倾向是考虑债权人的满意程度还是债务人的权利救济与保障。
     
      当我们考虑司法程序中的这些问题时,可以得出这样的结论:标准化的软件程序可能可以适用于司法程序,但它只能覆盖一些狭小的司法领域。大致说来,这主要指一些更类似于官僚层级化中使用的程序。但在绝大多数民事或刑事案件,尤其是裁判过程,不能通过简单和标准化的计算机程序来处理,这是目前人工智能技术还不能企及的高度。
     
      (二)计算机程序对法官裁量权的规范问题
     
      目前人工智能的另一些重要应用是试图对司法裁量权进行合理化约束。[16]在这个方面值得注意和反思的问题是以合理化裁量权的名义,来缩减或消除法官的裁量权。因为缩减或消除法官的裁量权已不仅是人工智能应用的技术问题,它本质上是一个司法政策的问题:在一个给定的法律制度之下,授予法官多大的裁量权才应该被信任?
     
      如果需要通过人工智能技术规范法官的裁量,就应该注意区分两种不同的裁量权:强裁量权和弱裁量权。[17]强自由裁量权意味着法官可以在相当宽泛的范围内进行权衡选择,并只需考虑个案的特殊性,典型的如对案件的定性、对证据证明力的判断等。强裁量权很难被事先合理化安排,只能通过事后的证明说理。弱自由裁量权意味着法官虽然可以相对自由地选择,但要受制于先前已有的选择,或者必须在预先设定的最大和最小范围内,或者应根据某种标准和原则进行裁判。
     
      区分不同种类的自由裁量权区别很有必要。对此应该认识到,强性的自由裁量权其实很难通过逻辑工具或框架来使之合理化。事实上,这种自由裁量权的基本特征,就是法官有权通过关注案件的相关特征,并以完全自由选择的方式去为决定寻找前提或标准,决定每一个具体的案件。这种选择不能也很难被事先合理化,更多地只能是事后证明。法官可以通过说明使用的标准和规范,以及基于强性的自由裁量权所参考的案件特点,对决定作出事后论证;或可以证明,鉴于案件的某些有关情况和一些评价标准,其根据其前提所作的决定是合理和有效的;甚至可以通过将它们适用于更高级别的选择规范,来给这些前提进行一个外部证成,并且给出理由证明为什么考虑了案件中与其决定相关的一些特征(例如主体的性别或社会条件)。然而,上述这些并不是一个先验合理化的决策过程(这在逻辑规则和模型方面也许是不可能的),而仅仅是一个事后合理化的决定。
     
      当涉及弱性自由裁量权时,对于自由裁量选择的事前合理化似乎才有了更大的空间。以先前存在的标准和规则,决定事前司法裁量权的边界。换句话说,有一套要遵循的处方,或者一组可供选择的方案,由它们确定作出裁量性决定的语境。如在涉及刑事裁判量刑时,每种犯罪类型都有相应的最高或者最低刑期,或者规定可以被提及一些因素(如年龄、精神状况、是否累犯等),法官可以据此来确定某个特定案件中刑事制裁程度。此类“详目表”会被用来作为规范法官裁量权的一种手段。如果所有相关标准都结合在一个精确复杂的分析规则中,且标准被更好更详细地定义,那么便可以产生更详细的分类,根据每一个案例可以找到合适的归档,就可以确定“适当”的量刑。
     
      如果不可避免地需要使用以人工智能的方式来合理化法官的裁量,那么至少在法官作出个案的决定之前,需要有一些相当精细化的选择:建立复杂的标准和原则集合,并进行细致定义子集进行分类。这些集合假设是以明确地或隐含地,通过法律或逻辑,通过条文或实践的形式进行展现,或多或少都有广泛的备选方案可供法官选择。其中心内容是,法官将选择其中一种替代办法,在某种情况下理论上任何案件都应在一致和有组织的情况下找到自己适当的“归档”,从而得到自己的合理结果。这也许是一个使法官裁判合理化的功能性方法,且在理论上可行。法官需要做的只是按图索骥地找对合适的文件柜,而在文件柜的抽屉里写着小纸条“判三个月”或“判十年”。这或许是最大限度地合理化法官自由裁量权的方式。然而进一步的问题是,当该系统倾向于产生极其复杂的组合时,为了被归类或者联系到一个典型的情形时,个别情况就必须被视为“类似”(案件)并对应于某一种类型。在法官判定案件是否与另一案件类似或案件是否与某一类型相符时,其实还是会使用到上述的强裁量权。
     
      人工智能化的方法确实可以减少或者消除实践中裁判的模糊性以及标准的不确定性,因为它增加了裁判的统一性和预见性,相应地降低或消灭了主观性、不确定性。但我们只是可以承认,如果从假设裁判的统一性价值应取代个案评估重要性的角度来看,这种减少或消除的做法可能甚至可以被视作是司法裁判领域的一个正向改变,然而真正的危险是这可能消除了法官的裁量权,而不是使其合理化。
     
      三、人工智能的另一个面向:“智能化”的管理者其实在法院的口径中,似乎从未提出过让机器来代替法官办案的设想或计划。那么人工智能究竟会以什么样的方式嵌入到中国的司法实践中去呢?值得注意的是另一种面孔的存在:作为管理者的“智能化”。它与前述问题的区别在于,裁判的人工智能化是指由机器来辅助法官进行决策,是从法官角度出发而进行的研发工作;而管理的智能化,是从纵向管理角度出发的研发,虽然也有机器的参与,但机器其实并不参与决策,而是类似于“数字目”的统计、管理角色定位。[18]
     
      科层结构喜欢以书面的文档为根据来作出决策。[19]因为整个系统追求秩序井然和确定性的偏好需要有一种机制,把每一个分散的程序步骤和记录汇总为一个有意义[20]的整体。不同级别、身份的公职人员将不同渠道搜集到的各种材料汇集起来供决策之用,所有记录都应当被保留起来以备将来的复核、追责。因此,智能化其实很好地贴合了这种需求,负责各个程序步骤的官员都可以通过该系统上传所有的文件,确保文档的完整性和真实性。整个系统充当着汇集信息和沿路作出的决策的储存库。这就像河道,智能化开辟了一条人工的河道,处于上下游的经办人员通过“河道”便能将文件整合到一起,将这些证据在裁判之前呈现给各个部门进行检验,并向最终的审理者提交。通过这种安排,最终的裁判者通过一个循序渐进的过程慢慢介入到证据展示过程中,证据也可以得到更冷静的评估。从这个意义上来看,整个系统完成的并非是裁判工作,而是整个司法流程的管理。
     
      不过,智能化的系统虽然可以为裁判和复核提供基础信息的来源载体,但问题是哪些信息应该或可以被提取进“河道”内,即信息的筛选与提取方式。这时信息的全面性与精准性会产生矛盾:一方面,各个“河道口”的经办人员需要尽可能详细地将自己掌握的信息通过系统提交上去,为上游的决策提供;但另一方面,如果仅仅只是将所有的案卷材料扫描一下,然后事无巨细地上传至系统,也会带来信息杂乱的问题。[21]一份完整的讯问笔录或者讯问视频虽然信息量很全面,但是进入到系统中却没有意义。这是因为每个案件的处理时间有限,裁判者在进行决策和复核的过程中不可能有太多时间和精力潜入到个案细节之中。
     
      因此,进入到系统中的信息必须是简洁性和概括性的。所以,就需要作权衡工作,对信息进行筛选工作,一套筛选标准和顺序要目的罗列是不可避免的。很显然,以“简单与复杂”案件或者“重要或非重要”,这种模糊性的“意义的逻辑阐述”方法来进行区分是不可行的,因为结果导向式的评价方式,定义标准的开放性使其不具备操作性。有必要将案件按照某种相似性标准进行井然有序的编排,这种相似性的标准是一种“外部特征性”的描述。
     
      如在上海市高级法院研发的系统中所采取的办法是,根据不同的案件类型,分别详细规定了收集程序、规格标准、审查判断要点。“由于工作角度不同,公检法在实际办案中对这个标准的理解往往会存在差异。因此首先要解决的问题,就是,如何按照法律规定解决证据标准适用统一问题……证据标准是指在诉讼中据以认定案件事实的证据要求和证明程度,事实清楚、证据确实充分是一个总的标准,具体到每个罪名,还需要进行细化。为此……选择了7类18个具体罪名,逐项制定证据标准,目前已初步完成故意杀人罪、盗窃罪等7个罪名的证据标准制定工作。”[22]
     
      但值得注意的是,类似的提取方式有可能会弱化公、检、法之间的相互监督关系,因为所有的事实提取方法都是按照标准化的模式进行采集、浓缩,裁判模式将会扁平化,裁判者会事先研究系统中提取的案件要素,对庭审过程中的证人质证等将会趋于公事化程序。也就是说,最后的庭审工作只是对系统中所提取的案件要素的真实性和是否符合标准的审核,而非对案件事实本身的再发现。此外,这样一套筛选标准还可能会对裁判者的个人经验造成压制。因为决策者本人的个体风格和对案件的理解被简化拆分为一个个并不直接关联的要素时,意味着决策的过程将不再主要依靠厚重的、直接的经验,而是基于某种固定的逻辑,但某些独特并不一定符合筛选标准的细节却已经在前置程序中被过滤。
     
      结语
     
      正如笔者所强调的,裁判的人工智能化研究还处于起步阶段,想要建立一个完整的人工智能化司法决策理论的目的还远远没有实现。虽然,近代法律文化中产生过许多不同的司法决策理论,这些传统理论的缺陷之一是,他们认为只是通过使用非常简单和粗略的工具便可以推断解释极端复杂的现象。在人工智能的主题研究历程中已有一些逻辑模型最终被证明是不成功和不可靠的,如三段论模型便是最重要的牺牲品。因为这些模型一直未曾对法官怎样裁判以及论证其判决的过程作出完整的解释。从另一个角度来说,司法裁判无法计算机化的“失败经历”也可以表明这样一个事实,司法推理是开放性的逻辑和理性分析,它也许不能用单一的逻辑结构来解释。法官的推理也不能被降格为简单的、可重复的、固定的、先决的以及包罗万象的逻辑模型。如果研究人员一直想要在推理性和非理性之间划出一条明显严格的分界线,可能是个误导性的做法。
     
      真正的问题仍然在于以实证态度关注我们的司法裁判经验,探索中国式裁判智能化的积极尝试,关注和研究人工智能在司法过程中多样化的策略使用及其合理性,不能简单地为了“智能”而“智能”。如果不了解法官们在做些什么和他们需要些什么,刻意地简化司法程序(为方便转换成计算机程序),将形式化的框架强加于程序和知识之上,会使得裁判工作中真正核心因素的重要性被忽视,从而导致不准确的或不适当的决定。
     
      

    【作者简介】
    吴习彧,浙江工业大学法学院讲师,法学博士。
    【注释】
    本文是司法部国家法治与法学理论研究项目(项目批准号:13SFB3001)、教育部人文社科项目(项目批准号:15YJC820063)、浙江省哲学社会科学规划项目(项目批准号:17NDJC234YB)和浙江省社会科学界联合会重点课题(项目批准号:2013Z12)的阶段性研究成果。
    [1]2016年2月25日最高人民法院院长周强在最高院信息化专题讲座上清晰地提出“智慧法院”宏伟蓝图,发布了人民法院信息化3.0版的建设规划;2016年11月在浙江乌镇召开的第三届世界互联网大会上,最高院牵头组织了“智慧法院暨网络法治论坛”,周强等最高法院的主要负责人以及北京、浙江、上海、江苏、河北等省市的高级法院院长出席论坛并作主题发言,发布了《乌镇共识》。
    [2]2016年12月30日,某新闻网刊发题为《南京法院拟引入机器人辅助判案:“阿尔法”是替身还是帮工?》的报道称,南京市中级法院决定于2017年引入智能机器人,“以提高办案质量和办案效率”:法官输入案由、情节等案件事实,机器人自动弹出适用法条,并显示量刑建议。在法官确认后,判决书便“一键生成”。这则带有宣传甚至广告色彩的报道,迅速引发公众关于“机器人替代法官”的担忧。南京中级法院随后发文指称该报道失实,并澄清该院未引入有关机器人项目。http://www.thepaper.cn/news-Detail_forward_1590536,2017年7月29日。
    [3]参见吴习彧:《司法裁判人工智能化的可能性及问题》,《浙江社会科学》2017年第4期。
    [4]自2013年以来,在最高法院报告中已不再使用“社会效果”字眼,并强调“在法律之内寻求社会效果”,虽然反映出最高法院对其司法政策的反思与修正,但这些问题必然还会在司法实践中存在,如何将政策判断问题转化为一种可言说、可论证、可检验的司法技术问题,仍然有待于中国特色审判经验的积极尝试。
    [5]参见袁承东(贵州省黔南布依族苗族自治州中级人民法院副院长)在关于“坚持法律效果与社会效果有机统一,切实履行司法工作职能”一文中所提出的几个疑问。http://old.chinacourt.org/public/detail.php?id=332002&k_author, 2017年7月29日。
    [6]这是孙斯坦在对次级决策研究模式的分析结果之一,参见Cass R. Sunstein and Edna Ullmann-Margalit, Second-order decisions, in Behavioral Law and Economics(Cass R. Sunstein eds, .2000)。
    [7]参见Amos Tversky, Shmuel Sattash, and Paul Slovic, Contingent Weighting in Judgment and Choice, 95 Psychol. Rev.371(1988)。 p186.
    [8]钱卫清:《法官决策论——影响司法过程的力量》,北京大学出版社2008年版,第5页。
    [9]参见张伟仁:《中国传统的司法和法学》,《现代法学》2006年第5期。
    [10]清末,正当中国法制变革之际,有人指出了传统司法体制的弊端之一即为“层层节制,顾忌良多,未免曲徇人情,无独立不挠之志。”参见《御史吴钫奏请厘定外省官制请将行政司法严定区别折》,《清末筹备立宪档案史料(下册)》,中华书局1979年版,第823页。任喜荣教授说所谓“顾忌良多”、“曲徇人情”、“无独立不挠之志”,不过意味着上下级之间因循苟且,以至互相包庇,最终造成整个社会的司法黑暗。从法官个人的角度看,要避免司法风险,是否提高个人的道德修养并不重要,重要的是在掌握基本的法律知识的前提下,加强与上下级之间的沟通以及了解辖区的风土人情。参见任喜荣:《刑官的世界——中国法律人职业的历史透视》,法律出版社2007年第1版。
    [11]有一项研究表明,上层人物的建议,甚至是不正确的建议,能够以不成比例的数字被接受,而下层人物的建议,甚至是正确的建议,也会以不成比例的数字被否定。参见[美]E·保尔·托伦斯:《权力差异对三人群体的长期和短期决策的某些影响》,收录于[美]A·保尔·海尔、爱德加·F·博加塔和罗伯特·F·贝尔斯编的《小群体》一书中,美国诺普夫出版社公司1955年版,第482—492页。
    [12]因为案件的发回重审、改判率一直是衡量一名法官办案水平和能力的主要指标,为了减少办“错案”的几率,下级法院不得不通过请示汇报来与上级法院保持“步调一致”。
    [13]钱卫清:《法官决策论——影响司法过程的力量》,北京大学出版社2008年版,第35页。
    [14]Michele Taruffo, Judicial Decisions and Artificial Intelligence, Artificial Intelligence and Law 6:311—324, 1998.
    [15]Philip Leith, The Judge and the Computer: How Best 'DecisionSupport'?,Artificial Intelligence and Law 6:289—309, 1998.
    [16]这块领域主要表现为“同案同判预警系统”,在江苏省高级法院与东南大学合作的“人民法院司法大数据研究基地”,把同案同判预警系统作为主要开发研究的方向之一。其主要设计思路是期望通过人工智能技术对数据库中的裁判文书进行深度分析,形成预测模型,再将新判决的结果与预测模型结果进行比对,从而计算出新判决案件的“偏离度”,进而给法官裁判提供智能辅助。http://news.xinhuanet.com/legal/2016-09/23/c_129294865.htm ,2017年7月30日。
    [17]关于强弱裁量权的分类及阐述,参见Michele Taruffo, Judicial Decisions and Artificial Intelligence, Artificial Intelligence andLaw 6:311—324, 1998。
    [18]这方面的研发工作代表如上海市高级法院开发的“上海刑事案件智能辅助办案系统”。这套系统目的在于统一公检法三机关的证据标准适用。“智能办案系统除了让我们的办案活动数据化、智能化之外,还通过留痕的方式使之可视化,如果无视这些瑕疵选择通过,那么下次追责的时候就无处遁形了。”(具体办案干警的评论)。参见:http://legal.people.com.cn/n1/2017/0711/c42510-29396419.html, 2017年8月2日。
    [19][美]米尔伊安·R.达玛什卡:《司法和国家权力的多种面孔——比较视野中的法律程序》,郑戈译,中国政法大学出版社2007年版,第76页。
    [20]当然,意义的本身来自于体制的设定。
    [21]以中国裁判文书网为例,目前文书的上传总量已超过3000万篇,虽然互联网可以使裁判者快速地检索到案件,但是“检索到”并不意味着对裁判者有意义。根据该网显示,文书总量为30278657篇,日均新增文书近6万篇。http://wenshu.court.gov.cn/,2017年6月26日。
    [22]参见:http://sh.eastday.com/m/20170710/u1a13106244.html, 2017年8月3日。

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码