人工智能如何“无偏见”地助力刑事司法
——由“证据指引”转向“证明辅助”
2021/1/28 8:15:37  点击率[55]  评论[0]
【法宝引证码】
    【学科类别】刑事诉讼法;人工智能
    【出处】《法律科学》2020年第5期
    【写作时间】2020年
    【中文摘要】在我国刑事司法领域,人工智能已高调介入,其初衷是“推进以审判为中心的诉讼制度改革”,而两大具体要点则是“统一证据标准”和“防范冤假错案”。但在实践中,却面临着“简易案件不需要,复杂案件不敢用”以及“补课而非升级”的尴尬境遇,效果不如预期。在探讨所谓算法、技术之前,首先需要解决人工智能介入刑事司法的方向性问题,反思其与传统刑事诉讼的基本原则和理论教义能否兼容。否则,人类的认知偏见即可能转移给人工智能产品,进而形成“算法偏见”。确保人工智能“无偏见”地助力刑事司法,应当从形式意义上的证据指引转向实质意义上的证明辅助,实现基于证明原理的全面升级、基于证据评价的概率测算以及基于整体主义的认知监控;同时,不得动摇人类作为司法决策者的主体地位,接受来自算法的支持而非支配,避免隐藏在人工智能产品中的“认知偏见”对司法实践带来难以控制的负面效应。
    【中文关键字】人工智能;大数据;算法;司法证明;认知偏见
    【全文】

      一、缘起:法律人工智能中的“偏见”
     
      当前法学界乃至整个中国社会对于人工智能的关注,可谓前所未有。尽管有关计算机技术如何影响司法,抑或机器能否取代法官的讨论,在域外已经持续半个世纪[1],但直到今天,我们才在生活中如此真切地感受到人工智能所带来的强烈冲击。习近平总书记在主持中共中央政治局学习时就曾强调:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题……要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”{1}这也意味着,人工智能作为近年来最热的社会话题和理论热点之一,已经得到了最高层的重视。在司法领域,最高人民法院院长周强也曾表示,中国法院着力推动现代科技与法院工作深度融合,为审判工作插上现代科技翅膀,法院信息化3.0版主体框架已经确立,智慧法院建设格局初步形成;将积极推动大数据、云计算、人工智能在司法领域的全面运用,着力把现代科技从强调工具性的浅层运用推向更深层次的规则治理和制度构建,破解传统手段无法有效解决的诉讼难题,实现诉讼制度体系在信息时代的跨越发展。{2}
     
      增效、减负、辅助、监督,这是人工智能之于我国司法的基本定位,也是对其实践效果的现实预期。尽管这并不能完全满足基于人工智能的法律想象;但在探索之初,无疑是较为稳妥的。强调“稳妥”,虽然可以最大限度地避免错误,但人工智能的负面效应,却并非只有明显的“错误”方能造成。换言之,某些人工智能难以避免的“副作用”,或许不是一般意义上的“错误”,但也足以对司法决策产生误导。例如,近期有研究发现,在域外刑事司法领域逐步兴起的人工智能评估系统可能误导法官、检察官以及警察产生偏见,这种偏见主要针对有色人种,是基于算法本身而形成的。{3}实际上,但凡是人类作出的判断和决策,就可能存在认知偏见,司法领域亦是如此。所谓“认知偏见”,即是可能导致系统发生错误的思维方式,而这种思维方式在大多数情况下是合理并且可以得到理解的。在此意义上,认知偏见所造成的错误,并不意味着其依附的认知系统总是错误或不可靠的;相反,正是认知偏见的存在,让我们有条件更深入地了解认知系统的运作方式,进而对认知偏见加以控制。{4}201—202自然地,当人类回溯过往数据进而将其写入算法时,人类的认知偏见便会转移给人工智能产品。吊诡之处在于,人工智能介入司法,其本身一大目的即是消除司法人员决策过程中可能存在的认知偏见;而现实却是,人类在设计算法的过程中,将其认知偏见“灌输”给人工智能产品,以致人工智能产品以“中立”“客观”“自动化”的姿态将这一偏见延续甚至放大。因此,倘若我们试图让人工智能系统在司法领域发挥原本应有的作用,即需要正视并理解其可能存在的“算法偏见”,首先防范或控制这一偏见对司法可能产生的负面效应,方能真正实现借助人工智能消除司法人员之认知偏见的实践初衷。这也是在法律人工智能发展之初,我们应当正视并重视的课题;否则随着法律人工智能的深入演进,一旦所谓“算法权力(agorithmic power)”形成,人类即会被视为受到计算、预测和控制的“客体”而非“主体”。倘若那时再试图消除“算法偏见”,显然制度和技术成本将会大大提高。
     
      无论域外抑或我国,人工智能之于司法实践可能产生的负面效应,目前更多地显现于刑事司法领域。刑事司法关乎打击犯罪与保障人权的平衡,稍有偏差即可能酿成不可挽回的错误和损失,因而也更为“敏感”地感知着新鲜事物带来的各方面影响。因此,本文将论域集中于刑事司法,尝试从人工智能介入刑事司法的实践探索出发[2],研判其实质效果是否有如预期,算法偏见是否已然凸显,进而对刑事司法领域的人工智能进行理论反思,并勾勒出人工智能之于我国刑事司法的未来图景和发展方略。
     
      二、人工智能介入刑事司法的实践探索
     
      在我国刑事司法领域,人工智能已然高调介入,并积累了一定的经验。具体而言,介入我国刑事司法的人工智能系统大体可以区分为两类:一是司法领域普遍探索并可能影响刑事司法的,例如“类案智能推送系统”“诉讼服务系统”“法律机器人”等;二是仅限于刑事司法领域的人工智能系统,以上海、贵州探索的刑事案件智能辅助系统为典型。囿于篇幅,本文之探讨仅限于后者。
     
      (一)刑事司法引入人工智能的基本要点
     
      按照时任中央政法委书记孟建柱在调研时给上海高院下达的任务,要求其研发“推进以审判为中心的诉讼制度改革的软件”。这套系统“要解决刑事案件办案中存在的证据标准适用不统一、办案程序不规范等问题”,要“具有校验、把关、监督功能,可以及时发现证据中的瑕疵与矛盾,及时提示办案人补正或作出说明,确保提请逮捕、移送审查起诉的案件符合法律规定的标准”;从而提升办案质量和效率,实现防止冤假错案,减少司法任意性,推进以审判为中心的刑事诉讼制度改革落地见效的目标。{5}由此可见,人工智能介入刑事司法的初衷是“推进以审判为中心的诉讼制度改革”,这也是十八届四中全会以来我国刑事司法改革所遵循的基本脉络;而借助人工智能所试图提升的两大具体要点则是“统一证据标准”和“防范冤假错案”。
     
      然而,关于前述之“统一证据标准”“防范冤假错案”两大具体要点,在理论上并非毫无争议:其一,“以审判为中心”是否需要“统一证据标准”?由个案观之,不同案件之间存在差异,是否类案均以同一标准收集证据方为正当,不无疑问;从纵向诉讼进程来看,“统一标准”并不符合诉讼规律,诉讼是一个递进的过程,对于事实的认知也应当循序渐进,而不是自侦查始即一成不变,反而需要通过递进式诉讼程序形塑递进式证据(证明)标准[3]。其二,“以审判为中心”是否缘于“防范冤假错案”?如果仅仅聚焦于程序是否可能导致冤假错案,随之而来的问题可以非法证据排除为例:一旦非法程序取得的证据是真实的、不会导致冤假错案,是否依然应当排除?是否可以据此认定事实?就此而言,唯有将程序正义、人权保障作为推进“以审判为中心”之缘由,方能有效回应上述疑问:无论证据是否真实、是否可能导致冤假错案,只要取证手段违反正当程序、侵犯基本人权,就应当予以排除,不得据此认定事实。在坚持程序正义、人权保障的基础上,通过规范司法行为,自然能有效实现防范冤假错案的效用;但不能就此混淆其因果关系,而将“防范冤假错案”作为“以审判为中心”的根本目的和价值。
     
      一项新的技术被运用至任何一个领域,均应当是问题导向的,人工智能之于刑事司法亦不例外。既然投入大量人力、物力、财力研发刑事司法领域的人工智能技术,那么必然存在试图借助人工智能解决的具体问题。但开篇之分析表明,将“推进以审判为中心的诉讼制度改革”作为人工智能介入刑事司法之初衷本无可厚非,而“统一证据标准”与“防范冤假错案”作为其两大要点是否合理,却是值得商榷的。更重要的是,一旦人工智能运用的方向在初始阶段即存在偏差,其究竟能获取多少收益,较之成本是否仍然可观,均有待实践检验。
     
      (二)刑事司法运用人工智能的实践效果
     
      源自贵阳市委政法委的数据显示,自2017年政法大数据办案系统正式运行以来,截至当年7月,共办理刑事案件419起480人,同类案件的办案时间同比去年缩短30%,因证据不足退回补充侦查率同比去年下降25.7%,因证据不足不批捕率同比去年下降28.8%,服判率同比上升8.6%,因证据不足作出无罪判决的案件“零发生”。{6}显而易见,从数据上看,大数据与人工智能的运用,在刑事司法实践中的效果显著。但吊诡的是,在2017年的一系列集中报道后,刑事司法领域的人工智能系统近期稍显沉寂,现实中一线办案人员似乎也并没有得到预期的便利。以致于有学者指出,我国在顶层设计、官方政策、学术界研究方面对人工智能的重视程度超过不少国家,其话语热度持续升温,但却在司法实践运用效果层面遭受冷遇;相比之下,不少域外国家所呈现出的政府层面支持力度与广度均颇为有限,但地方实践中却不乏亮点。{7}
     
      1.“简易案件不需要,复杂案件不敢用”
     
      在人工智能的具体运作样态上,以上海的“206”系统为例,其将命案分成4种类型:第一种是现场目击型,也就是现场有目击证人或者有监控录像,能够完整反映案件情况的命案类型;第二种是现场留痕型,比如现场有血指纹、血脚印等能够证实犯罪嫌疑人作案的客观性证据的命案类型;第三种是认罪供述得到印证型,也就是主要依靠犯罪嫌疑人的供述与其他证据印证从而定案的命案类型;第四种是拒不认罪型。{5}而盗窃模型按照证据数量和种类的不同,分为当场抓获型、重要线索型和网络犯罪型三种类型。根据初步设想,证据模型不仅要有证据指引功能,还要有单个证据合法性校验功能,证据和证据间互相印证的功能,以及证据之间逻辑判断的功能。{8}按证据数量和种类对犯罪进行分类的逻辑,在实践中可能遭遇适用困难,例如获悉一起网络犯罪的重要线索,然后伏击当场抓获,应属于上文中的何种类型?一起谋杀案,既有现场目击者亦有现场留痕,但嫌疑人拒不认罪,又应当归于何种类型?
     
      这不难理解,为何有办案人员在访谈中表示:“简易案件不需要,复杂案件不敢用。”面对案件事实清楚、证据确实充分的简易案件,其类型往往是办案人员日常接触较多且较为熟悉的。需要何种证据、证明力需要达到何种程度,办案人员往往能够如同条件反射一般熟练操作。这原本就不需要人工智能系统进行指引和辅助。而在复杂案件中,办案人员当然会投入更多的精力,其审查程度自然也更高,在面对并不熟悉的人工智能系统时,办案人员也更愿意相信自己的大脑而不是眼前的机器。“说实话我们自己也不知道这个系统的原理是什么,有时候我们觉得证据够了,但系统觉得不够;有时候我们觉得证据之间还有些矛盾,但证据规格符合系统要求,系统也没有进行提示”,一位受访检察官说道。
     
      人工智能系统的证据指引作用,主要是基于所谓“证据规格”而设计的,前已述及,其目的之一即是“统一证据标准”。“证据规格”本是源自我国刑事司法实践而产生的概念,系对某类案件中所必须收集的证据及其基本形式、取证要求所作出的规范。但显然,“证据规格”只是辅助性或指导性的,并非强制性的,目的是便于实践操作和降低错误可能。因为,证据规格不能等同于证明标准,更不是证据判断的全部内容;单个证据之证据能力、证明力判断以及全案证明标准、证明责任分配等问题,除了应当依据法律规范、经验法则、逻辑法则进行评价,还需要借助法律解释和论证融入价值判断,而这显然是人工智能所力不能及的。{9}简言之,在具体案件中,可能超出“证据规格”的基本要求而收集“额外”的证据,也可能毋需满足“证据规格”的形式要件即可达到证明目的。但如今,人工智能系统以“证据规格”为基础,对刑事案件进行监控,在简易案件中其实作用并不显著,而在复杂案件中也不可能穷尽案件的一切可能。是故,当前基于“证据规格”而设计的人工智能系统,似乎有着“鸡肋”般的尴尬。甚至系统的设计者对此也不自信,就曾有系统设计者在为办案人员培训系统操作时表示:“当前系统存在不少问题,可能确实不太好用,我们也希望大家更多地反馈问题和需求,以便我们日后改善。”
     
      2.“补课而非升级”
     
      一线办案人员对于人工智能系统的另外一个直观感受是“补课而非升级”,即对过往刑事司法领域的不规范行为进行查漏补缺,而没有实质性地提升办案质量或效率。有关报道透露,“206”不仅能发现单一证据的瑕疵,还能发现证据之间的逻辑冲突之处:例如发现个案中7次供述的作案动机前后不一致,存在矛盾,需要办案人员进一步查证;又如,《法庭科学DNA检验报告》显示,公安机关共送检了14处血迹,但是《现场勘查笔录》显示,从案发现场仅提取了11处血迹,送检材料中多出来的3处血迹从何而来,需要办案人员进一步说明。{5}但这对于办案人员而言,并非必须借助人工智能方能发现的瑕疵,倘若真的没有发现,只能说明相关办案人员的能力或态度存在问题,当然不能以智能辅助不到位作为借口。易言之,人工智能并没有带给刑事司法本质上的“升级”,就此而言,其仍然是工具范畴的“弱人工智能”。同时,刑事司法领域的人工智能系统似乎更关乎“公正”,即“防范冤假错案”,而非“效率”。办案人有任何一步不符合标准的要求,倘若没有进行合理解释就走不到“下一步”。这当然可能确保案件质量、防范冤假错案;但从办案人员的反馈来看,僵化的系统设计,反而在某种程度上增加了负担,并没有实质提升效率。例如一位受访办案人员就曾抱怨道:“我有一个盗窃案,206系统识别出卷宗缺少鉴定意见,这个案子盗窃的是包,确实没注意做鉴定,多亏了系统提醒;另一个盗窃案,还是识别出缺少鉴定意见,但盗窃的是人民币,这是不需要鉴定的,系统却要求我进行解释。为什么系统犯错需要我来解释?这就很不合理,从那以后我再也没用过这个系统。”
     
      由此可见,一方面,人工智能系统基于“证据规格”试图“统一证据标准”,但即便同样是盗窃案件,其所需要收集的证据也可能是不同的,并非类案即有统一的证据标准;另一方面,当前人工智能系统在实践中的确可以提示办案人员存在的疏忽,但也可能因为自身系统的僵化而降低效率,甚至增加不必要的工作量,与其“增效”“减负”的初衷相违背。在大数据、人工智能时代,任何技术的运用都应当充分平衡成本与收益,{10}避免人力、物力、财力的浪费。倘若人工智能的高调介入,只能为刑事司法带来“补课”而非“升级”,那这样的收益显然是不如预期的。
     
      三、人工智能介入刑事司法的理论反思
     
      有学者曾担忧,人工智能的介入,正逐步使得法院成为判决工厂、法官如同流水作业线上进行操作的技工、审级制度的意义削弱、公检法司不同角色的协同性和统一性加强,等等。{11}但由前述之人工智能实践效果观之,至少在刑事司法领域,事实上尚未引发如此深刻的变革。当然,实践探索效果不如预期,其原因可能是综合的,技术不成熟、操作不顺畅等问题在人工智能介入我国刑事司法之初期并不意外。毕竟,当前人工智能系统开发仍面临着一系列技术障碍,诸如图谱构建过度依赖人工干预、情节提取的自然语义识别技术准确度不足、类案识别的准确率偏低、模型训练的样本瑕疵、算法的非可视化、偏离度预警的颗粒度悖论,等等。{12}更何况,正如有学者指出的那样:首先,当前我国法律领域并不拥有优质且海量的法律数据资源,数据不充分、不真实、不客观以及结构化不足的问题存在已久;其次,法律界并未形成合适且高效的大数据算法。近年来,人工智能领域属于联结学派的深度学习算法获得了重大突破,但并非深度学习就是人工智能。每种算法派别针对的数据领域、数据特点各不相同,在一个领域获得突破的算法不见得就能适用于其他领域;加之,缺乏优秀、适格的法律与计算机复合型人才,法律与计算机的对话才刚刚起步。{13}上述多方面因素的综合作用,导致了当前人工智能的些许尴尬。然而,在我们探讨所谓算法、技术之前,首先需要解决人工智能使用的方向性问题,尤其是其介入刑事司法领域,与传统刑事诉讼的基本原则和理论教义能否兼容[4],是需要进行理论反思的;否则一旦在初始化阶段即走向错误方向,其成效自然很难符合预期。申言之,人类认知偏见是否可能通过人工智能影响刑事司法,首先需要借助刑事诉讼的基本原则和理论教义加以判断,因为诸如审判中心、控辩平等、裁判中立等要素,本身即是致力于在刑事诉讼程序中排除偏见,进而实现司法公正的。
     
      (一)人工智能是否有助于审判中心?
     
      前已述及,我国刑事司法领域引入人工智能的初衷即是“以审判为中心的诉讼制度改革”。“以审判为中心”符合法治国家追究犯罪、保障人权的时代要求,符合现代刑事司法的自身规律;因此许多国家尽管国情有别、制度各异,但其诉讼程序都遵循或体现以审判为中心的理念。而“以审判为中心”的核心在于“以庭审为中心”,重在实现庭审的实质化,保障控辩有效对抗和当庭质证。过往,“以侦查为中心”的刑事诉讼造成庭审过分依赖侦查卷宗笔录等书面材料,庭审流于形式。而“以审判为中心”正是强调克服庭审的形式化,防止将侦查、起诉中带有明显追诉倾向的意见简单地、不加甄别地转化为庭审结果,要求充分发挥庭审在事实认定和保障人权、实体公正和程序公正、有效防范冤假错案等方面的决定性作用。因此,人工智能是否有助于推进“以审判为中心”,其关键要素在于是否能扭转“以侦查为中心”“以案卷为中心”“以口供为中心”的实践样态,进而保障庭审实质化;否则,倘若人工智能反而加剧了“以侦查为中心”“以案卷为中心”“以口供为中心”的实践弊病,无异于认知偏见以“算法”的形式隐藏于刑事诉讼程序之中,并且将其进一步强化。
     
      就理想状态而言,人工智能当然可能在推进“以审判为中心”的进程中发挥实质效用,其积极影响包括但不限于:第一,人工智能可以对侦查阶段即存在的主观臆断或倾向性意见进行有效提示,利用相对客观中立的监控,对认知偏见进行干预;第二,人工智能可以对证据的似真概率进行推算,避免办案人员片面相信或否定某一证据之证据能力或证明力;第三,人工智能可以对诉讼过程中的不规范行为进行监控,避免人为因素干扰程序公正与实体公正的兑现。但就当前我国刑事司法领域的人工智能系统而言,恐怕尚未达到上述之理想状态。基于“证据规格”而设计的系统,虽然关注点主要在于证据指引,但其“统一证据标准”的出发点,反而使得侦查结论可能以更顺畅的方式被审判所确认,不利于扭转“以侦查为中心”的实践样态。申言之,经过人工智能系统监控的证据材料,如同包装上了“经由人工智能检验”的外衣,一方面,办案人员可能对此放松警惕,降低进一步审查判断及分析矛盾的积极性;另一方面,人工智能系统作为尖端科技,可能被赋予支配性的微观权力,既然受其检验后不存在异议,办案人员可能即会对其证据能力及证明力作出正面、肯定的判断。须知,“以审判为中心”本质上呼唤的是一种递进式诉讼程序,各阶段层层推演,从侦查到审查起诉再到审判,在认识上由浅入深、从感性认识过渡到理性认识,有别于不分主次的传统诉讼阶段论。但在僵化的人工智能系统指引下,证据体系是否在后续程序中仍然可能发生动摇和变化,判决的作出是否仍然依据案件最终发展的态势进行终局判断,而不是简单地对侦查结论及人工智能检验结果加以确认,均存在疑问。
     
      (二)人工智能是否有助于控辩平等?
     
      庭审实质化强调控辩有效对抗和当庭质证,其前提即是控辩平等。控诉和辩护作为刑事诉讼中两项基本权能,既是审判权产生的基础,也是保障审判权客观公正运行的前提。二者之间具有本能对抗性和目标一致性,而本能对抗性是实现目标一致性之前提,缺少控辩有效对抗,就不可能兑现刑事诉讼的民主和公正;目标一致性又为双方的对抗提供了保障,促进其在共同的目标和方向下大胆地辩论和反驳。平等的诉讼权利,是控诉与辩护进行有效对抗的基础,倘若控辩双方在诉讼中一强一弱,强势一方即会在诉讼中占据支配地位,其意见自然会左右裁判者对案件的认识,甚至产生偏见。{14}38因而,在大数据与人工智能时代,技术应当成为保障双方诉讼权利平等的辅助工具,而不是片面地增强一方诉讼实力,否则即可能违背包括控辩平等原则在内的传统刑事诉讼原理。人工智能之于控辩平等的影响,可以从平等武装和平等保护,亦即实质平等与形式平等两个层面加以理解。
     
      平等武装,意味着控辩双方拥有平等的攻防手段,可以平等参与诉讼并拥有赢得诉讼的机会和能力,这是一种基于双方实力的实质平等。在平等武装的前提下,人工智能的介入,需要保证控辩双方共享技术,这不仅仅是我国当前和未来会面临的问题,在域外同样如此。因为人工智能毫无疑问是一种高消费产品,往往只有侦、控、审三方有条件和能力运用,即使一些律师事务所也已开始购买人工智能产品[5],但这一产品的成本可能需要转嫁在被追诉人身上,被追诉人作为个体在大多数情况下其实很难负担这一额外费用。实际上,域外不少刑事司法智能系统或技术是由私人开发和生产的,但政府作为研究资助者和技术的主要购买者,具有独特的运作优势。{15}倘若共享人工智能技术,承担高额开发成本的一方显然是不情愿的,无论是起步之初的我国,抑或探索已久的域外,人工智能技术上的平等武装在短时间内或许很难实现,这就需要以形式平等弥补实质平等的缺憾,即提供平等保护。
     
      平等保护,意味着诉讼程序予以控辩双方平等的机会和条件,裁判者予以控辩双方平等的关注和倾听,这是一种基于权利保障的形式平等。在平等保护的前提下,人工智能的介入,应当遵循科技正当程序(technological due process),即保障技术运用的透明度(transparency)、准确性(accuracy)以及可问责性(accountability),倘若控辩一方对于技术运用存有异议,则是可以提出反驳的。{16}一旦控方利用人工智能进行证明辅助抑或诉讼决策,而辩方无法进行有力反驳,则控辩双方的实力差距可能越来越大,某些原本存在偏见的认知也会被视作理性。例如,当前美国刑事司法中将算法运用于风险评估系统,进而影响司法决策。但这一系统的运作有赖于数据输入,也就是被追诉人接受风险评估访谈时提供的信息。而不透明的技术和决策过程,使得被追诉人越来越容易在无意中自证其罪,算法不过是涉及强制的诸多潜在工具之一。正因如此,有美国学者开始主张将宪法第五修正案和米兰达规则运用于风险评估访谈,赋予被追诉人在访谈时保持沉默的权利,进而避免形成所谓“算法的强制”,为被追诉人提供平等保护,控制不透明的技术中可能存在的偏见。{17}
     
      (三)人工智能是否有助于司法公正?
     
      前文提到人工智能系统之所以不能取代证据评价的方方面面,一个重要的因素即是其无法作出必要的价值判断。但这里所谓的价值判断是一般意义上的,即受到社会普遍认可的价值判断。而人工智能系统本身并非完全没有价值取向,系统基于算法进行运作,而设计者在设置系统算法的时候,其实就将自身的价值判断灌输于系统之中了。这也是为什么机器抑或算法的偏见,已经开始受到广泛关注。正如前文提到,当前美国刑事司法中运用的风险评估工具对被追诉人中的有色人种存有偏见,并认为几乎所有基于算法的风险评估工具都存在这种偏见。{18}就此而言,美国刑事司法长期以来的种族偏见问题在算法中同样有所体现,这一点上,机器与人类并无二致,甚至可能带来违宪问题。{19}增加算法的透明度,以及设计算法以消除原始数据中预先存在的偏差,是提升人工智能系统可信度与中立性的基本路径,有助于确保算法符合宪法要求,并且得出更公平和更准确的测算结果。{20}关于此项争议,Wisconsin v. Loomis案[6]即是典型。法官量刑时不仅要考虑对罪行的适当惩罚,还要预测犯罪者再犯的可能性,因而时常借助评估工具预测风险。但本案被告Loomis在判决后提出救济之动议,辩称法院对风险评估工具的依赖违反了他的正当程序权利。最终威斯康星州最高法院认为,法院在量刑中使用基于算法的风险评估工具并未违反被告的正当程序权利,即使这一评估方法既未向法院披露,也未向被告披露。虽然法院向被告提供了程序保障措施,用书面建议的方式提醒法官注意评估工具的危险性;这样的“建议”却并不太可能促使法官产生有实质意义的怀疑,对评估工具的批评力度不足,亦未考虑到法官使用评估工具时承受的内部与外部压力。{21}至少从学理上看,一项评估方法和原理作为商业秘密而进行非透明化运作的评估系统,究竟是否存在偏见,是否可能影响司法公正,均是值得怀疑的。
     
      当然,算法偏见在我国当前的人工智能系统中表现得并不那么明显,很大一方面原因是当前所使用的算法其实并不明确,甚至较为低效,加之本质初衷在于“补课”而非“升级”,因而更多地是朝规范和指引司法行为的方向设计,而非实质性地影响司法决策。但未来随着算法的升级和系统设计方向的改变,人工智能系统可能实质性地影响事实认定、证据评价以及量刑等具体问题。至于是否有助于司法公正,关键取决于其角色定位于辅助还是决策,一旦替代人的决策主体地位,潜在的风险或许就难以控制。
     
      四、人工智能介入刑事司法的未来图景
     
      尽管人工智能在我国刑事司法领域才刚刚起步,且实践效果尚不如预期,未来的运用前景仍然是不可估量的。正如本文开篇所言,人工智能运用的方向不能在初始阶段即存在偏差,否则即会形成“算法权力”以及“算法偏见”;其究竟能获取多少收益,较之成本是否仍然可观,均存在变数。因此,人工智能介入刑事司法的未来发展进路,应当至少满足三方面基本要素:首先,遵循刑事诉讼基本原理,在推进“以审判为中心”的诉讼制度改革进程中,保障无罪推定、控辩平等、控审分离、审判中立等原则不受违背;其次,吸收域外人工智能探索的经验与教训,遵循科技正当程序,保障技术运用的透明度、准确性、可问责性以及可反驳性;最后,正确把握我国刑事司法的现实需求,从最亟需人工智能加以辅助的领域着手,实现有效“升级”。申言之,我国刑事司法领域的人工智能系统以“统一证据标准”和“防范冤假错案”为主要抓手,其核心关注点在于证据,而在不久的将来,首先需要从形式意义上的证据指引转向实质意义上的证明辅助,迈出“升级”的第一步。更重要的是,所谓“证据指引”或多或少有一种“居高临下”之感,司法人员面对人工智能的证据指引,倘若不选择遵从,按照现有系统设计需要给出合理解释,否则无法进行下一步程序;而“证明辅助”既然强调人工智能承担辅助事项,即意味着司法人员仍然是作出最终决策的主体,即便与人工智能的计算和预测存在出入,也不必向人工智能进行所谓“解释”,其目的之一自然是避免“算法偏见”主导诉讼程序。同时,刑事司法中的人工智能也能由此回归其介入初衷,对司法人员在决策过程中可能存在的错误和偏见加以提示,以“中立”“客观”“自动化”的姿态为司法人员提供智识参考和辅助。
     
      (一)基于证明原理的全面升级
     
      长期以来,我国理论研究及司法实务中呈现出“重证据、轻证明”之趋势,证据法学理论成果虽汗牛充栋,却多为规则层面之探讨,少有关注证明方法与原理的研究。证据规则依附于诉讼规则,但证明方法与原理并非规则所能囊括,对其缺乏理论关切的直接后果即是规则在实践中难以贯彻。这一问题,在人工智能介入刑事司法的探索中同样有所显现。当前,我国刑事司法领域人工智能系统的成绩主要体现在证据的数据及合法性规范方面,但也遇到了如何教会机器审查判断证据的关联性、真实性的挑战;而在证据合法性自动审查方面取得的进步主要体现在形式审查方面,在实质审查方面仍有障碍。{22}倘若试图提升实质效用,仅仅借助“证据规格”在“证据指引”向度进行“补课”是远远不够的,利用人工智能在刑事证明中为裁判者提供辅助和参考,应当成为未来的“升级”方向;而不仅仅局限于“统一证据标准”,使得相互印证的证据链条在刑事诉讼进程之初即“排除合理怀疑”[7]。毕竟,以审判为中心的刑事诉讼制度并不必然意味着“统一证据标准”,静态而非动态的标准,在过往司法实践中反而是助长“侦查中心主义”的;尤其是在大案、要案中,审判活动沦为对侦查结论的审查和确认,冤错案件时有发生,而人工智能介入我国刑事司法的另一基本要点却恰恰是“防范冤假错案”。
     
      “证据规格”本身更多地只是关注证据量和证据种类,即便涉及证据能力之审查,大多也止步于形式审查。以此为基础所设计的人工智能系统,显然只是作为工具的“弱人工智能”。须知,证据能力之有无,需要形式审查与实质审查相结合;且证明力之评价不在于“有无”而在于“强弱”,需要综合整个司法证明过程加以判断。我国刑事司法领域的人工智能系统倘若试图走出“弱人工智能”的现状,实现全面“升级”,则需要更多关注证明原理,在证明过程中给予实质辅助。事实上,使用算法模拟和运行司法证明过程中的证据推理并非不切实际,早在十余年前即有域外学者对此加以阐释,{23}只是对于其可靠性始终存在争论。当然,作为辅助的人工智能系统本就不是决策者,可以对其适用进行限制以避免喧宾夺主,但不应忽视其可能带来的积极作用。具体而言,人工智能系统在司法证明过程中的辅助事项,包括但不限于:其一,针对证据能力之有无、证明力之强弱,给出概率上的参考。人工智能系统借助算法在综合全案信息的基础上,模拟和运行司法证明过程,进行证据推理,进而可以对证据能力与证明力作出具有实质意义的审查判断,并为决策者提供概率上的参考。之所以强调是概率上的参考,是因为人工智能系统本就作为辅助者且存在出错的可能,尤其是针对证明力强弱,只能给出一个幅度区间,而不能作出绝对的评价。其二,知识上的补充。基于大数据样本和人工智能系统的深度学习能力,人工智能系统比人类拥有更广更深的知识储备并不意外,司法证明过程不仅要遵循法律规范、经验法则和逻辑法则,还需结合大量法律以外的知识进行分析,因而作为辅助者的人工智能应当为决策者提供知识上的补充。其三,重复性事项,以及倘若没有人工智能,办案人员完成起来有一定难度的其他事项。办案过程中有一些重复性、格式化的步骤,尽管没有难度,但办案人员仍需消耗时间、精力完成,而这类事项不涉及决策同时错误可能较低,可以探索由人工智能系统代为完成[8]。而一些其他事项,办案人员普遍反映有一定难度且容易疏忽,例如实物证据与电子数据鉴真、案件资金流与通讯记录梳理、讯(询)问记录关键信息提取等,对此也可以考虑用人工智能系统加以辅助。
     
      针对上述三点,结合现有技术以及国内外实践观之,其可操作性亦是较为可观的:首先,针对证据能力之有无、证明力之强弱,给出概率上的参考。即便是2015年的前南昌大学校长周文斌受贿案中,虽然并没有借助人工智能系统,被告人周文斌亦可以结合数学和概率知识进行计算,只是作为被追诉人一方其计算是否客观存在疑问。但仅仅从技术上而言,人工智能的测算能力显然是强于自然人的,司法人员运用人工智能系统针对证据之证据能力、证明力之概率进行测算,并无操作上的障碍。其次,关于诉讼程序中的重复性事项、格式化步骤,人工智能已经证明了具有良好的执行力和执行效果。例如,美国诸多大型律师事务所已经运用人工智能系统完成大量重复性工作,并且展现出超强的效率和准确性,使得律师可以将时间和精力投入其它难度更高的事项,进而合理分配工作重点。{24}因此,只需要对已运用在大型律所的人工智能系统稍加改进,即可适应诉讼程序中重复性事项、格式化步骤的需要。最后,关于知识上的补充,则是难度最大的一项。因为即便人工智能具备强大的知识储备和深度学习能力,但为了避免人工智能存在“认知偏见”,其深度学习的样本及模式,以及运用的限度,均需要审慎把握,况且当前法律人工智能实践中尚未普遍深入至如此程度,但可以确定的是,这种知识上的补充只是一种辅助,不能代替司法人员的决策。
     
      (二)基于证据评价的概率测算
     
      晚近英美证据法学转型的标志,是从证据规则到司法证明过程的研究转向,即“新证据学(New Evidence Scholars)”的兴起。{25}自此,数学知识和定量方法——如概率论、统计学和决策理论——开始被探究其可以给予司法证明何种指引。而在上世纪末,域外学者开始将司法证明与人工智能相联系的时候,也是因为人工智能与“新证据学”一样倡导广泛使用数学方法。甚至,人工智能在对待数学知识上更加执着,不仅将计算视为人工智能技术的核心,还认为其领域更合适的名称是“计算智能(computational intelligence)”。{26}实际上,法律从来离不开数学的帮助,而在未来,由于人工智能的连接作用,法律和数学的关系可能更加密切。{27}当然,倘若盲目地相信数学公式,试图得到效率和收益的最大化,即可能忽视数学“坏”的一面,尤其是带有偏见的算法。{28}对此,需要变通地看待司法证明中的概率测算,概率高不一定代表确信,但概率低却可以说明合理怀疑的存在。如果说上述问题在过往还属于理论层面的探讨,尚未在我国刑事司法实践中真正出现,那么在周文斌案之后,司法证明中的概率测算则成为了需要切实面对的问题。周文斌在庭审中运用数学和概率知识对控方证据的证据能力与证明力提出了质疑,还自制证据评价表,输入各种评价指标和数据,对证据是否属实进行评价。最终,法庭并没有对周文斌的质疑进行直接回应,实际上这可能并非不愿回应,而是缺乏足够的知识加以回应,周文斌凭借所掌握的数学知识质疑控方证据,但检察官、法官并没有等同的知识背景。因而,值得我们思考的是,未来面对这样的局面,是否可能借助人工智能辅助来回应或者证实基于概率测算的证据质疑。
     
      在上述理论假设下,人工智能辅助实际上扮演的是知识补充的角色。而司法场域中,办案人员的知识短缺并不仅仅在于概率测算或数理统计,更普遍的是面对“专门知识”时的无力。毕竟,“专门知识”作为刑事司法场域中建构起的一种非常态话语,独立于法律知识,因而产生特殊的权力关系[9]。对于法官而言,“专门知识”是相对陌生的,影响其判断的因素往往并非知识本身的正误,法庭调查中的知识碰撞[10],甚至是细微之语言态势、眼神交流也可能表现为知识的运行轨迹,进而造就支配关系。{29}实践中诸多案例表明,在鉴定意见业已取得“证据能力”并与其他证据“相互印证”的基础上,即使控辩双方就“证明力”展开知识上的交锋,鉴定意见中“专门知识”的支配性权力依然主导着裁判的生成。{30}那么,人工智能是否也可能在这方面提供辅助?答案是肯定的。域外实践中,“专家机器人(expert robot)”已经悄然进入理论视野。这种基于人工智能系统的“专家机器人”在运行过程中会对特定专业领域内的已出版文献进行检索,以此为基础,“专家机器人”会对专家证言及其科学依据进行系统评估,通过比对分析,专家证言所使用的诠释方法在这一特定专业领域是否被广泛接受、是否合乎逻辑、是否存在偏见,均会被“专家机器人”以法官所希望得到的详尽程度加以呈现。同时,为了应对不断更新的案件类型和实践样态,并保持人工智能系统本身的精确性,“专家机器人”会基于强大的深度学习能力,吸收新的判例、规则、科研成果,以保证在评估专家证言可采性时尽量贴近现有标准。需要强调的是,“专家机器人”不会篡夺法官或陪审团作为事实发现者的主体地位,只会在对复杂的科学技术问题进行评价时提供完全中立、客观的辅助。{31}换言之,“专家机器人”既不是裁判者也不是专家本身,其所提供的辅助意见并不是某项科学技术问题的对与错,而是科学证据本身成立与否在概率上的大或小。
     
      (三)基于整体主义的认知监控
     
      作为一种证明模式,“整体主义”强调证据之证明力源于所有已输入信息之间的相互作用,任何特定的证据原子之意义与价值在于和其他所有证据关联、并为解释者所用时扮演的角色,换言之,一个特定证据作为分析对象的证明价值,从根本上取决于其他所有证据。{32}“整体主义”有别于形式化的“印证证明模式”[11],并非多个证据包含相同信息即可证明待证事项。将所有证据关联并评价其相互作用,需要充分考虑存在的多种可能并进行证据矛盾分析,达到高度的认知融贯性方能作出肯定之判断。其实,办案人员很难在个案中均投入大量精力,进行如此精细的证据分析,此时即可发挥人工智能的辅助和监控作用。更何况,认知科学研究表明,认知能力的有限性迫使我们使用策略或启发式方法(heuristics)来帮助识别和使用关键数据,进而解决所面临的问题。实际上,这种所谓策略不仅对人类重要,人工智能亦然,只是人工智能的信息处理能力更为强大。此外,我们在探求事实真相的过程中还可能会不同程度地浪费认知资源,这时更需要选择策略,是继续补充我们已有的证据信息,还是找到决策所依据的关键证据信息即可。但可以肯定的是,办案人员总是可能不得不放弃一些证据信息,以便明智地分配认知资源并做出相对正确的决定。{33}此时,人工智能的介入,目的即是借助更为强大的信息处理能力,使得办案人员可以将认知资源合理分配至关键信息的处理上,并提示其可能存在的信息遗漏、证据矛盾和认知偏见[12]。
     
      对于人类而言,信息加工过程受到多方面因素干扰,可能因此产生不同的认知结果。启动理性认知系统抑或感性认知系统[13],认知流畅度是高还是低,以及是否存在认知偏见,这些因素都可能影响认知融贯性和决策准确性,甚至导致错误认知。但人工智能系统的核心是算法,信息加工过程即是计算的过程,相对封闭,并不会像人类那样受到诸多认知行为以外的因素干扰。因此,人工智能系统的模拟和计算结果,对于办案人员相当于多了一个辅助参照系,当认知结果与系统计算结果存在较大出入时,即可提示其开启理性认知系统并重新反思认知过程中是否存在认知偏见,以保证认知融贯性与决策准确性,避免错误认知。域外经验显示,借助人工智能实现对裁判结果的预测,早在上世纪末即已开启探索。法律人工智能不仅可以模拟法律推理和论证,还能对特定法官的裁判风格和偏好进行总结,同时对过往判例进行类比、区分,进而得出更精准的裁判预测。这类人工智能产品不仅逐渐开始被部分法院所接纳,成为法官的辅助工具,还被一些律师加以运用进而制定有针对性的诉讼策略,此外立法机关、行政机构等也可以借此对法律的实施情况进行监控。{34}需要说明的是,复杂性是司法证明过程所必须面对的难题,{35}也正是其魅力所在,人工智能系统不能代替人类的认知决策,更无法将案件的复杂性加以综合考量;但一方面可以保证整体主义进路之下的信息完整性,另一方面可以作为辅助者提示决策者在面对复杂性时所可能产生的认知偏见。
     
      五、余论:算法的支持抑或支配?
     
      除了证明辅助,人工智能在刑事司法领域还可以辅助侦查破案、风险评估、裁判预测以及同案同判等。本文之所以着重强调从“证据指引”转向“证明辅助”,主要是基于我国现有人工智能系统之主要特点——以“证据规格”为基础——而言的,至于其他领域的探索当然同样值得理论关注。但一项基本原则是,不得动摇人类作为司法决策者的主体地位。人工智能可以作为辅助,进行知识上的补充和计算上的支持,却不能被寄希望于成为司法决策的“自动售货机”。正如有论者所言,算法权力作为一种新兴权力并不把人类视为“主体”来对待,而是作为可计算、可预测、可控制的客体。大数据掌控者们借助越来越智能化的算法分析以及数据化的人类经验,持续开发着人工智能产品,在为人类生活提供越来越多便利的同时影响着人类的选择和决策,并在此过程中积累起日益膨胀的财富、技术和人力资源。{36}倘若放任“算法权力”的支配,则隐藏在人工智能产品中的“认知偏见”将会对司法实践带来难以控制的负面效应。对此,有必要强调的是,基于大数据分析和深度学习,即便人工智能系统确实可能在对同类案件的处理上减少偏差,但法律总是不断面临着全新的问题,因而大数据或人工智能不能取代独立、理性的法律判断,作出判断的主体仍然是人类。{37}一旦人工智能系统不再扮演指引者,而是作为诉讼进程中办案人员的辅助者,那么这种辅助即是没有强制性和支配力的,办案人员可以选择是否接受,即使不接受,也不需要进行所谓解释。简言之,进行司法决策的是人,承担司法责任的也是人。
     
      需要说明的是,本文绝非否定人工智能介入刑事司法领域的尝试,不过是提出初步疑问,期望在未来得到回应。毕竟,当Alphgo接连完胜李世石、柯洁,成为围棋“霸主”的同时,人工智能在我国刑事司法领域的探索才刚刚起步。正如同柯洁在输给Alphago之后所感叹的:“我相信未来是属于人工智能的。可它始终都是冷冰冰的机器,与人类相比,我感觉不到它对围棋的热情和热爱。”同样,法律并非程式化的计算,在面对世间冷暖时,需要体现出应有的温度,而这只有人类才有能力赋予。正因如此,至少在未来很长一段时间里,司法领域的人工智能仍是人类的辅助者,而非足以“战胜”人类的挑战者。司法当然需要得到来自算法的支持,但绝不是接受算法的支配。

    【作者简介】
    谢澍,中国政法大学刑事司法学院副教授,法学博士。
    【注释】
    [1] 代表性论述可参见Bruce G. Buchanand, Thomas E. Headrick, Some Speculation About Artificial Intelligence and Legal Reasoning,23 Stanford Law Review 40(1970); Edwina L. Rissland, Artificial Intelligence and Law: Stepping Stones to a Model of Legal Reasoning,99 Yale Law Journal 1957(1990).
    [2] 为了更深入地把握人工智能在刑事司法领域的实践样态,2018年7月至8月,我们在率先使用人工智能系统的上海司法机关中,选取了几位操作过这一系统的办案人员进行访谈,本文中所涉及的访谈内容均来源于此,在此对接受访谈的办案人员致以谢忱。
    [3] 在我国刑事司法实践中,“证据确实、充分”的一元化设定,相当于将“证明标准”简化理解为“定罪标准”,进而贯穿刑事诉讼始终,这本是一种高标准设定;但实际上,我国刑事司法实践中有罪推定与口供中心主义的痼疾、先供后证与证据转化的手段、形式上对于证据相互印证的强调,加之忽视有利于犯罪嫌疑人、被告人的无罪证据,无形中将证据裁判主义留于纸面,而证明标准的形式一元化,更让证据裁判主义沦为司法形式化的脚注,侦查终结与有罪判决在法律上采同一标准,意味着审判演化为对侦查结论的审查和确认,形式上的“高标准”异化为实质上的“低标准”。参见谢澍:《论刑事证明标准之实质递进性——“以审判为中心”语境下的分析》,《法商研究》2017第3期,第132-139页。
    [4] 倘若在初始化阶段缺乏对人工智能运用方向的引导和限制,放任的结果很可能即是人工智能改变传统法律认知——甚至这在部分学者看来是无法避免的。例如,有观点认为,在整个人类社会可能被重塑之前,法律本身会在很大程度上面临重构。公众借助于人工智能作为更为便捷因而也更为廉价的工具来认知法律,更快捷也更为普遍的形成对于法律的预测。这种对于法律认知模式的重构,会在很大程度上使人们对法律的预测由人工智能的算法确定,使算法实际上成为了法律。同时,算法成为法律,将会形成更为个体化的规则。参见李晟:《略论人工智能语境下的法律转型》,《法学评论》2018年第1期,第98-107页。就此而言,传统的法律原则和理论教义在未来均可能被人工智能所颠覆,但无论如何,当下我们所需要坚持的是尽可能确保人工智能在法律原则和理论教义的框架下运行,以避免法律秩序的混乱。
    [5] 例如,基于IBM Watson平台的Ross人工智能系统已经被Dentons和Latham & Watkins等大型律师事务所使用。See Alison Arden Besunder, Not Your Parents’ Robot,90 New York State Bar Journal 20(2018).而人工智能技术即将改变法律职业的工作模式,甚至由于人工智能系统在完成重复性工作上的超高效率,大型律所按时间计费的传统方式也可能被颠覆。See Sharon D. Nelson Esq., John W. Simek, Running with the Machines: Artificial Intelligence Advances Bring Benefits, Threats to Practice of Law,43 Montana Lawyer 18(2018).
    [6] State of Wisconsin v. Eric L. Loomis,881 N. W.2D 749(WIS.2016).
    [7] 形式而非实质化的印证本就是诱发冤错案件的一大因素,参见汪海燕:《印证:经验法则、证据规则与证明模式》,《当代法学》2018年第4期,第23-33页;谢澍:《反思印证:“亚整体主义”证明模式之理论研判》,《华东政法大学学报》2019年第3期,第143-153页。
    [8] 例如,认罪认罚案件中即存在大量重复性事项需要办案人员耗费一定精力加以解决,并且这类案件证明难度较低,实际上可由人工智能系统进行格式化处理;但另一方面,虽然认罪认罚案件证明难度较低、办理相对容易,但却不失复杂性,此类案件中办案人员可能因疏忽大意而对关键信息产生遗漏,人工智能系统更应在此发挥提示作用。参见谢澍:《直面认罪协商制度的“复杂性”》,《政法论坛》2019年第6期,第170页;吴思远:《我国控辩协商模式的困境及转型》,《中国刑事法杂志》2020年第1期,第154-155页。
    [9] 这里的权力是指福柯意义上的微观权力,即“权力制造知识;权力和知识是直接相互连带的;不相应地建构一种知识领域就不可能有权力关系,不同时预设和建构权力关系就不会有任何知识”。参见〔法〕米歇尔·福柯:《规训与惩罚》,刘北成、杨远婴译,生活·读书·新知三联书店2012年版,第29页。
    [10] 这与调查规则设计相关,参见龙宗智:《刑事庭审人证调查规则的完善》,《当代法学》2018年第1期,第3-10页。
    [11] 需要说明的是,“印证证明模式”并非如同部分学者所认为的那样可以与“整体主义”直接等同,只是形式上接近“整体主义”的“亚整体主义”。关于“整体主义证明模式”的详细阐述,请参见谢澍:《迈向“整体主义”——我国刑事司法证明模式的转型逻辑》,《法制与社会发展》2018年第3期,第180-197页。
    [12] 尤其是在类似正当防卫或防卫过当这样存在较多证据矛盾、干扰信息、合理怀疑的案件中,更需要这样的证明辅助和认知监控。参见谢澍:《正当防卫的证明难题及其破解——激活正当防卫制度适用的程序向度》,《政治与法律》2020年第2期,第13-26页。
    [13] 关于认知加工系统可参见Daniel Kahneman, Paul Slovic & Amos Tversky, Judgment under Uncertainty: Heuristics and Biases, Cambridge University Press,1982, pp.3-20.
    【参考文献】
    {1}加强领导做好规划明确任务夯实基础推动我国新一代人工智能健康发展〔N〕.人民日报,2018-11-01(1).
    {2}罗书臻,乔文心.加强司法信息化建设促进世界法治文明发展〔N〕.人民法院报,2018-03-27(1).
    {3}Sandra G. Mayson. Bias In, Bias out〔J〕. Yale Law Journal, Vol.128,2019:2218-2300.
    {4}〔美〕凯瑟琳·加洛蒂.认知心理学:认知科学与你的生活〔M〕.吴国宏,等译.机械工业出版社,2019.
    {5}余东明.研发“刑事案件智能辅助办案系统”避免冤错案〔N〕.法制日报,2017-10-13(6).
    {6}杨唯.贵州贵阳政法大数据办案系统证据指引增效率自动监督保公正〔N〕.法制生活报,2017-09-14(1).
    {7}左卫民.热与冷:中国法律人工智能的再思考〔J〕.环球法律评论,2019,(2):53-64.
    {8}毛丽君.代号“206”上海刑事案件智能辅助办案系统正式“解密”〔DB/OL〕.http://sh.eastday.com/m/20170710/u1ai10706910.html,2019-07-12.
    {9}纵博.人工智能在刑事证据判断中的运用问题探析〔J〕.法律科学,2019,(1):61-69.
    {10}Stephen E. Henderson. A Few Criminal Justice Big Data Rules〔J〕. Ohio State Journal of Criminal Law, Vol.15,2018:527-542.
    {11}季卫东.人工智能时代的司法权之变〔J〕.东方法学,2018,(1):125-133.
    {12}王禄生.司法大数据与人工智能开发的技术障碍〔J〕.中国法律评论,2018,(2):46-53.
    {13}左卫民.关于法律人工智能在中国运用前景的若干思考〔J〕.清华法学,2018,(2):108-124.
    {14}谢佑平.刑事程序法哲学〔M〕.北京:中国检察出版社,2010.
    {15}Natalie Ram. Innovating Criminal Justice〔J〕. Northwestern University Law Review, Vol.112,2018:659-724.
    {16}Danielle Keats Citron. Technological Due Process〔J〕. Washington University Law Review, Vol.85,2008:1249-1313.
    {17}Cassie Deskus. Fifth Amendment Limitations on Criminal Algorithmic Decision-Making〔J〕. NYU Journal of Legislation and Public Policy, Vol.21,2018:237-287.
    {18}Julia Angwin, Jeff Larson, Surya Mattu & Lauren Kirchner. Machine Bias: There’s Software Used Across the Country to Predict Future Criminals, and It’s Biased Against Blacks〔DB/OL〕.https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing,2020-05-15.
    {19}Sonja B. Starr. Evidence-Based Sentencing and the Scientific Rationalization of Discrimination〔J〕. Stanford Law Review, Vol.66,2014:803.-872
    {20}Ric Simmons. Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System〔J〕. Ohio State Journal of Criminal Law, Vol.15,2018:573-581.
    {21}Harvard Law Review. Criminal Law-Sentencing Guidelines-Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing〔J〕. Harvard Law Review, Vol.130,2017:1530-1538.
    {22}刘品新.大数据司法的学术观察〔J〕.人民检察2017,(23):29-31.
    {23}Tod S. Levitt, Kathryn Blackmond Laskey. Computational Inference for Evidential Reasoning in Support of Judicial Proof〔J〕. Cardozo Law Review, Vol.22,2001:1691-1731.
    {24}Alison Arden Besunder. Not Your Parents’ Robot〔J〕. New York State Bar Journal, Vol.90,2018:20-24.
    {25}Richard Lempert. The New Evidence Scholarship: Analyzing the Process of Proof〔J〕. Boston University Law Review, Vol.66,1986:439-477.
    {26}Peter Tillers. Introduction: A Personal Perspective on “Artificial Intelligence and Judicial Proof”〔J〕. Cardozo Law Review, Vol.22,2001:1365-1380.
    {27}Danielle Hall. The Future of Law Includes Math〔J〕. Journal of the Kansas Bar Association, Vol.87,2018:17-20.
    {28}Peggy Bruner. A Case Against Bad Math〔J〕. Journal of Technology Law & Policy, Vol.22,2018:1-19.
    {29}Bonnie Erickson et al. Speech Style and Impression Formation in a Court Setting: The Effects of “Powerful” and “Powerless” Speech 〔J〕. Journal of Experimental Social Psychology, Vol.14,1978:226-279.
    {30}谢澍.刑事司法证明中的专门知识:从权力支配到认知偏差〔J〕.法律科学,2018,(4):102-113.
    {31}Pamela S. Katz. Expert Robot: Using Artificial Intelligence to Assist Judges in Admitting Scientific Expert Testimony〔J〕. Albany Law Journal of Science and Technology, Vol.24,2014:1-45.
    {32}Michael S. Pardo. Juridical Proof, Evidence, and Pragmatic Meaning: Toward Evidentiary Holism〔J〕. Northwestern University Law Review, Vol.95,2000:399-442.
    {33}Craig R. Callen. Othello Could Not Optimize: Economics, Hearsay, and Less Adversary Systems〔J〕. Cardozo Law Review, Vol.22,2001:1791-1810.
    {34}Edwina L. Rissland. Artificial Intelligence and Law: Stepping Stones to a Model of Legal Reasoning〔J〕. Yale Law Journal, Vol.99,1990:1957-1981.
    {35}John A. Barnden, Donald M. Peterson. Artificial Intelligence, Mindreading, and Reasoning in Law〔J〕. Cardozo Law Review, Vol.22,2001:1381-1406.
    {36}郑戈.算法的法律与法律的算法〔J〕.中国法律评论,2018,(2):66-85.
    {37}Caryn Devins, Teppo Felin, Stuart Kauffman & Roger Koppl. The Law and Big Data〔J〕. Cornell Journal of Law & Public Policy, Vol.27,2017:357-413.

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码