犯罪之技术治理的价值权衡:以数据正义为视角
2020/10/20 9:30:41  点击率[12]  评论[0]
【法宝引证码】
    【学科类别】犯罪学
    【出处】《法制与社会发展》2020年第5期
    【写作时间】2020年
    【中文摘要】在信息文明时代,大数据等新型通用技术深刻推动了犯罪治理的变革,犯罪的技术治理模式兴起。技术治理具有技术赋能与技术赋权的两面性,技术赋能与技术赋权“一显一隐”的非均衡发展致使算法歧视、隐私弱化、数字鸿沟等问题趋重,加剧了社会安全防卫与个人权利保护的价值冲突。在数据主义重塑社会结构的当下,对犯罪技术治理的正当性进行反思尤为迫切。对此,有必要引入数据正义的分析视角,迈向数据控制且超越数据控制,以有限扩张、关系均衡、法律控制、技术赋权等正当性要求锚定犯罪技术治理的价值导向。这要求我们以数据权利厘定数据监控的法律边界,以算法治理打开预测性执法的技术黑箱,对权力外溢至平台企业开展均衡治理,以数据开放打通公众参与的数据接口。
    【中文关键字】技术治理;数据监控;正当性;数据正义;数据权利
    【全文】

      在信息文明时代,大数据、人工智能等新型通用技术深刻推动了犯罪治理变革,基于信息技术的治理创新层见叠出,人脸识别、算法决策、预测性执法、平台治理、人工智能司法等技术的应用极大地提升了政法机关的社会能见度、风险感知度和反应灵敏度,“运用技术平台监管社会成为现代社会的普遍做法”。犯罪治理呈现出整体性的技术转向,犯罪的技术治理模式蔚然成型。但技术治理在取得令人瞩目的成就的同时,“政府对个人信息巨细靡遗的收集,将引发民众对‘隐私已死’的担忧,有可能滑入‘全方位监控型社会’”。算法歧视、黑箱社会、隐私弱化、数字鸿沟等因数据使用而产生的不公平对待引发了广泛的社会焦虑,加剧了社会安全防卫与个人权利保障之间的价值冲突。

      一、隐匿于技术治理中的“看不见的非正义”

      (一)技术治理的两面性

      大数据是国家治理的显微镜、透视镜和望远镜,信息技术在与国家机器的高度适配过程中极大提升了犯罪治理能力,美国的PredPol、德国的Precobs、意大利的Keycrime、韩国的U-Governance、我国的“城市大脑”等智能防控系统在实践中大放异彩,大规模数据监控、预测性执法、平台治理等技术手段的应用给社会生活和犯罪治理带来了深刻影响。对此,犯罪学亟需恰当的概念箱、充足的知识储备和科学的分析框架,以便作出恰切回应,技术哲学和技术社会学中的“技术治理”范畴由此进入犯罪学视野。

      技术治理源自二十世纪初兴起的技术治理主义。技术治理主义强调科学技术在社会发展中的决定性作用,主张实施工具层面的渐进式的社会工程,以科学技术提升公共治理效率,因而成为国家治理的全球性现象。在模式上,可用“犯罪的技术治理”描摹犯罪治理的技术转向。犯罪的技术治理,是指防控主体依托“云计算、多平台、百系统”等架构,遵循“数据集成、风险预警、决策支持、指挥调度、共治服务”的平台治理流程,集成运用几十种甚至上百种具体的智能系统进行数据分析,以实现犯罪预警、预测、预防的整体性治理模式。技术治理有技术赋能与技术赋权两个方面。信息技术不仅强化了社会控制,其还作为一种解放性力量,以赋权形式释放出大数据社会福祉。

      1. 基于数据监控的技术赋能

      信息技术对犯罪治理的赋能主要通过数据监控体现出来,数据监控是各类智能防控系统的底层逻辑。在流程上,数据监控包括数据采集和整合环节,依托“代码、算法、软件、系统”的分析环节,指向精准干预的结果输出环节。在成本上,在物信融合的基础设施建成后,数据监控被转化为廉价监控和自动监控,人财物投入远少于传统的“人盯人”监控,算法决策使监控自动化运行。在规模上,随着数据化程度日益加深,数据监控成为根植于“数据宇宙”的泛在监控,只要有数据印记和网络连接存在,更多的人和事就被会传感器记录下来,被源源不断地输送至智能系统中,实现自动挖掘、整合与甄别,从而形成全景敞视的监控架构。在权力运行上,人脸识别、算法决策等方法紧密融入社会生活,使人无从分辨,而监控方法越具侵略性,技术背后的数据权力运行就愈发不易被外界察觉,以至于技术治理成为一种“消失”的治理术。

      随着数据监控的全面铺展,信息技术与犯罪治理组织体系产生了强烈的化学反应,围绕数据权力形成了双向互嵌、高度融合的治理态,催生出复杂精密的“数据巨机器”。“巨机器”源自技术哲学家刘易斯·芒福德的《技术与文明》一书。芒福德认为,现代技术造就出高度权力化的复杂大型机器———“巨机器”。在“巨机器”中,人无异于一颗颗螺丝钉,服从机械的铁律。“数据巨机器”是对大数据时代技术治理所孕育的治理生态的形象描摹。“数据巨机器”由“云计算、多平台、百系统”组合而成,通过数以亿计的物联网传感器,将数据汇聚于由巨型服务器集群所支撑的中央信息源,借助各种复杂精妙的算法分析数据,为犯罪治理输出各类结果。数据监控及“数据巨机器”提高了国家对社会的控制、整合及动员能力,优化了犯罪治理的体制和机制,强化了综治组织体系的结构韧性,极大提升了犯罪治理能力,但在客观上也导致治理权力趋于集中。

      2. 回归人本导向的技术赋权

      技术作为工具本是中立的,但技术的使用必定受价值导向的影响。信息技术不仅强化了社会控制,更是一种解放性力量。信息技术在重塑社会的过程中,给技术使用者带来了意想不到的发展机遇,有效改善了公共治理的方式,通过保障国民对犯罪治理的知情权、参与权和监督权来提供大数据社会福祉。可见,技术治理不仅有赋能面相,更能够技术赋权。在域外,数据开放浪潮推动英美等国对社会公开犯罪地图,民众在线查询各类犯罪地点等信息,以此促进警民互动,指导被害预防和社区防卫。在国内,在目前的八个“城市大脑”项目中,浙江嘉兴的“社会治理云平台”不仅支持技术赋能,还在“微嘉园”模块以微信将125万市民(全市常住人口470万)纳入线上网格化治理,使市民能够通过各自所属网格的微信群对社会治理所涉问题实现线索上报、意见分享、集体协商、调解及共治,由此,政府各部门在线上对接和解决问题的过程中形成了基于“用户视角”的“线上政府”,形塑出了基于技术赋权的源头治理、回应型治理和整体治理策略。

      赋权既是一种主观感知,强调个体对生活资源和发展拥有控制力,对特定事件拥有影响力,也是一种行动过程,强调个体或群体依靠信息开展社会实践。技术赋权往往与信息的获取、社会的认同和互信、公众的参与等主题紧密联系在一起。因此,犯罪的技术治理不同于技术统治,技术赋权呼唤技术治理回归人本导向的治理本质。尽管技术赋能使治理权力随着数据监控的使用而趋于集中,但技术赋权通过改变治理结构、助力公众参与的方式,促使治理权力外溢至社会和个人。

      3. 技术赋能与技术赋权的非均衡发展

      在实践中,技术赋能和技术赋权的两面呈现出“一显一隐”及“一强一弱”的非均衡性困境,技术赋能愈发彰显,技术赋权尤甚薄弱。这种失衡的表现有很多,比如,监控技术的迭代演化对隐私和自由的威胁愈发严重,监控数据运行的透明度不高,算法和模型愈发复杂且难以被解释和监督,政府、科技企业与个人之间的“数字鸿沟”日趋拉大,等等。技术赋能与技术赋权的失衡在相当程度上受犯罪治理极强的目标导向影响,无论是及时锁定嫌疑人,还是精准研判犯罪风险,这种极强的指向性自然会引导防控实践向技术赋能倾斜。技术赋能在催生全景式监控的同时,也引发了人们对信息技术福音走向反面的担忧。技术治理与个人数据的使用密不可分,数据监控与每个人的关系深入且具体,以至于“人越来越适应监测环境,监控技术与人的身体逐步融合,并构建了人的生活世界”。技术治理以飞天遁地的科技力量追求秩序唯美主义,形塑出前所未有的“数据巨机器”,但个人的自由和权利有可能免于被反噬吗?处于加速进化中的技术赋能效应极大挤压了技术赋权的空间,数据主义的治理架构相对忽视了数据使用的正当性与合法性。伴随着数据监控的全面扩张,这种非均衡发展引发了一系列因数据使用而产生的不公平对待问题。

      (二)非均衡发展引发的不公平对待

      技术治理虽蕴含着迈向数据控制的赋能过程,但我们对技术的理解不能止步于工具的运用,而是应关注技术对社会福祉和个人自由有无増进。因此,技术治理不等于绝对的数据控制和唯数据主义。但遗憾的是,大数据分析推动着刑事政策的制定者和执行者从被数据影响逐渐转变为被数据决定。在数据主义的决定下,“重赋能轻赋权”的非均衡发展所导致的因数据使用而产生的不公平对待愈发凸显。这种不公平对待源自数据控制者的不正当的数据使用行为,与数据使用的理念、方式直接相关。不公平对待不仅包括对特定群体或个体的歧视性执法和不正当的差别对待,还包括对全体国民在整体意义上的技术赋权不足。具体来说,不公平对待的表现如下:

      第一,盲目追求全景式监控,忽视了大数据的有限性,易使犯罪治理陷入“技术乌托邦”误区。尽管大数据分析具有重要作用,但大数据分析的结果是解释性和预测性的,而非控制性和绝对性的。由于大数据分析仅能实现有限理性,在人工限定的具体任务中发挥作用,所以,大数据分析仍须与具体的刑事政策、决策者和执行者的经验、特定的治理策略等相结合。“万物皆可计量”“算法设计未来”等大数据崇拜之声实际上过度拔高了大数据技术的作用,“技术乌托邦”误区为数据权力的不当扩张提供了貌似合理的借口,故而应警惕数据控制者以技术之名过度侵蚀个人权利。

      第二,从人和技术的关系上看,“让渡决策”侵蚀了人的主体性,其暗藏的算法中心主义忽视了人的行为在犯罪治理中的作用。作为一根会思想的“苇草”,人的主体性是社会进化的内在动力。当下,基于智能机器的“让渡决策”正在日趋增多,比如PredPol软件对预测性执法的自动规划、“上海刑事案件智能辅助办案系统”的算法量刑等。“技术治理诱惑人类把判断交给数据”,使让渡决策依靠算法进行决策,但算法仅仅是对人类活动的数学模拟,基于算法的自动化决策也并非完全准确无误。随着“让渡决策”的边界面向人类的这一侧不断后移,算法中心主义日益凸显,科技与人文协作的困境愈发趋重,对个人的技术赋权亦被算法中心主义所虚置。

      第三,从决策依据上看,算法决策存在着算法歧视、算法误差等技术风险。算法是智能系统进行计算、分析的规则,是机器学习的内在机制。由于算法具有高度的复杂性和不透明性,故而机器学习和深度神经网络的运行往往是只见结果不见过程。“算法黑箱可能受隐藏的偏见影响,即因训练数据的不足而得出违背设计者本意的结果;可能存在较大模糊性,即算法规则很难精确表述出来,而是嵌入在数千甚至数万变动的因素中,很难证明某算法在任何情况下均正常工作。”某非营利组织发现,Northpointe公司所开发的犯罪风险评估软件Compas在再犯风险评估中系统性地歧视黑人,而白人则更多地被错误评估为具有低犯罪风险。算法黑箱以技术掩盖偏见和歧视,认为算法决策就等于公平公正,这是一个天大的误解,由此,算法歧视又被称为“最安静的恐怖主义”。

      第四,从公众参与上看,数据控制者与个人之间的“数字鸿沟”催生出了新的社会鸿沟,限制了国民对技术治理的参与。技术平台对社会具有长期固化效应,囿于数据权力的隐蔽性,表面看,互联网与大数据扩大了平等与自由,事实上却进一步强化了社会分层。目前,个人与大数据掌控者之间的力量悬殊愈发明显,个人越来越无法掌握自己的命运,透明的个人与幽暗的数据掌控者之间的社会分层也就在所难免。大规模数据监控将亿万个体视为监控对象,“算法黑箱”架空了个人对技术治理的知情权,“说服计算”动摇了“行为系自由意志的产物”的世界观。“数字鸿沟”在事实上将个人对数据监控的知情、参与、监督的权利排除到了犯罪治理体系之外。

      第五,从权利保障上看,全景敞视的数据监控给自由和隐私带来了重大威胁。数据监控依赖于对个人信息的整合利用,客观上增加了个体的透明度,使个人越来越易被识别,导致无匿名、高清晰的个体超级档案逐渐生成。技术治理以社会安全防卫之名急剧放大了隐私弱化的法律风险,政府对个人数据的访问权与个人隐私权存在现实抵牾。面对“数据巨机器”的崛起,对于个人怎样保有必要自由的问题,亟待深思。

      二、不公平对待引致价值冲突加剧

      犯罪治理活动一般兼具复合目标,追求自由、公正、安全、秩序、权利、效率等多元价值,但特定背景、场景、内容下的防控策略在实现主要治理目标的同时,往往与其他价值在一定程度上存在抵牾之处。例如,人脸识别技术在高效监测高危人员的同时,也在一定程度上对国民的自由和隐私构成威胁。随着算法偏见、自动化决策、数字鸿沟等不公平对待的趋重,人脸识别等技术的社会风险、法律风险、伦理风险被骤然放大,极大加剧了社会安全防卫与个人权利保护的总体价值冲突,进一步激化了技术治理的正当性危机。

      (一)价值冲突加剧的表现

      1. 安全至上、秩序为重与隐私保护、自由保障的价值冲突

      大规模数据监控强化了政府对个人的控制,凸显了安全至上和秩序为重的理念。监控的指数级增长和全方位覆盖不可避免地对个人隐私、自由构成威胁。以人脸识别技术为例,东南某省会城市较早在地铁安检口安装了人脸识别摄像头,与“全国在逃人员信息系统”进行实时比对,可迅速识别在逃人员出入地铁的线索。在此后八个月内,公安机关凭借该技术抓获在逃人员500余人。如今,在重点空间使用人脸识别已成为高密度城市安全防卫的惯常策略。但值得深思的是,人脸识别技术的敏感性在于其融合了信息和生物技术,有关部门在获得人脸信息的超级访问权后,虽然监控能见度得到大幅提升,但使个人变得愈发透明,导致隐私边界不断溃缩。为此,反思人脸识别技术、加强隐私保护的社会思潮风起云涌。2019年,美国旧金山市、萨默维尔市相继出台了禁止政府部门使用人脸识别技术的禁令,反对使用人脸识别技术的理由包括该技术过度侵犯个人隐私,人脸识别存在误差,助推歧视性执法并加剧种族不平等,等等。2020年初,欧盟关于在公共场所禁用人脸识别技术的政策也在酝酿之中。

      上述反对理由确有一定道理,但断然拒绝人脸识别技术似不可取,因为该技术在政务服务、商业活动中已获得广泛应用,在犯罪治理中收获了奇效,我们根本无力抗拒“刷脸时代”的到来。任何一项技术在防卫社会的同时都会影响到个人自由和隐私保护,只不过信息技术因具有广泛的社会覆盖面、强大的数据处理能力、超强的迭代更新速度、开放的社会整合机制,从而使这种冲突骤然加剧,以至于人们一时间无所适从,难以取舍。而且,即便要对人脸识别进行限制,也应以规制个人信息使用的数据法为依据。鉴于信息时代普遍存在“制度滞差”,在数据法尚不完备的情况下,人脸识别的正当性危机可能会愈发严重。

      2. 效率优先与权利保护的价值冲突

      基于“数据+算力+算法”的合力驱动,技术治理取得了前所未有的高效率和大成就,并使全国公安机关刑事案件立案数迎来了大幅持续下降的“历史性拐点”。这种高效率不仅有赖于警力的高强度投入,还得益于由算法决策所驱动的自动监控的全面推行。某地政法委运用AI深度分析各类巨型数据库及实时信息,通过总结严重暴力犯罪行为人的罪前特征及危险人格特征(如是否失业,有无缠访闹访越级访及精神疾病经历,有无家暴行为等)设计威胁评分模型,通过预测性执法,在茫茫人海中识别和干预高危人员。

      客观地说,预测性执法具有一定的合理性和可操作性,但这种过于主动、前置的执法方式易导致数据监控的系统性滥用和体制性防卫过当,使个人权利时刻处于“数字利维坦”的威胁之下。“用算法识别对社会安全具有潜在威胁的个体,这种基于群体层面长期可疑行为的预测,将不可避免地以回答‘是或否’的问题来实现;但对个体而言则直接关涉自由和权利,被远程监控的人不知道自己被数据分类的基础。”预测性执法一旦被滥用,将会对社会产生巨大的寒蝉效应。技术治理在追求高效率的同时,离不开制度化约束对个人权利的保护。权利保护理念要求算法决策必须保持透明度,在法律上明确威胁评分规则的具体内容、被监控对象的倾向性、监控的正当程序等。如果制度化约束缺位,那么,效率与权利的抵牾将日益趋重。

      3. 概率公正与个案公正的价值冲突

      算法决策被应用于技术治理的底层逻辑是概率分析。以威胁评分为例,算法决策在全面采集数据的基础上,对个体进行人群分类及用户画像,其基于训练数据设计评估模型,计算个体实施违法行为的概率。在计算哪类人群的威胁评分更高以及是否可被列入“大数据黑名单”时,算法决策在概率上确实具有无可比拟的准确性,但当具体到特定个体时,则可能存在算法歧视、计算误差、识别错误等问题。例如,Compas、PSA、LSI-R等软件在美国被应用于辅助法官量刑和评估罪犯再犯风险等领域,它们在预估某一群体的累犯风险时相对可靠,但囿于对有色人种存在较为严重的算法歧视、算法量刑与量刑个别化原则相抵牾等缘由,这些软件针对特定个体所作出的累犯风险预测、量刑结果计算等可能失准,尤其是在预测暴力犯罪时准确率不佳。可见,算法决策虽能实现概率层面的公正,但未必能够直达个案个体的公正。

      概率公正源自算法中心主义,是技术方法和组织体系互嵌而生成的“数据巨机器”的输出结果。概率公正不等于社会整体公正,社会整体公正源自个体所获得的个案公正。算法中心主义以让渡决策和自动控制的形式造成了事实上的数字鸿沟,其所引发的歧视性执法导致算法社会中的人与人之间新的不平等。於兴中认为:“算法社会一定是科技精英社会,我们可能正在期望一个比现有社会更不平等的社会,这种不平等是从起点到结果的全方位的不平等。”这种数据导向、算法中心、技术驱动的治理策略无可避免地输出概率公正,以概率公正置换个案公正。如果枉顾这两种公正观念之间的冲突,将可能动摇整个刑事司法大厦的根基。

      (二)价值冲突的本质

      从哲学上看,社会安全防卫与个人权利保护的总体价值冲突之所以在信息社会骤然加剧,可被归因于数据主义的崛起及其对人文主义的冲击。信息技术的泛在应用催生出数据主义的哲学新主张。“数据主义认为,宇宙由数据流组成,任何现象或实体的价值在于对数据处理的贡献。数据主义要求连接越来越多的媒介,产生和使用越来越多的信息,让数据流最大化;要求把一切连接到系统,连那些不想连入的异端也不例外。数据主义一开始也是中立的科学理论,但正逐渐成为要判别是非的宗教。”数据主义推崇视一切为数据、以数据为中心的世界观,遵循计算机逻辑和算法中心主义,依赖产生于数据的洞见,希望通过数据技术来解决犯罪问题。受数据主义影响,犯罪治理被简单化约为数据监控与预测性执法的组合,被置换为信息技术的应用。数据主义表达了一种信息技术比其他治理手段更具优越性的意识形态,它过于迷信技术而忽视了人的主体性,给人文主义带来了严峻挑战。

      “以人为中心的人文主义是人类近代以来确立的基本文明价值观,正是以人为中心的人文精神使人道、自由、民主、平等、法治等成为社会主流价值。”人文主义重视人的生存和发展,维护人的尊严、价值和自主性,以社会正义准则制约技术的社会功能,以人的权利实现为中心,标定犯罪治理的价值导向。数据主义冲击人文主义的表现有四:其一,“数据洞察一切”“算法设计未来”等数据主义主张的前提在于,人类世界可被数据完全镜像,这种不现实的想法不仅极具迷惑性,而且隐含着一种认为个人可被视为“数字人”或“微粒人”的意识。其二,数据主义以数据和算法为中心,忽视了人的自主性,忽视了人的价值观和经验对犯罪治理的重大影响。其三,数据主义倡导的大规模数据监控固化了个体作为被监控对象的原子化形态,对人的权利和自由构成巨大威胁。其四,数据主义助推家长主义治理思维的持续蔓延。“家长主义的核心特征是为保护行为人的利益而限制行为人的自由。”但问题在于,家长主义在犯罪治理中不能过限,不能动辄以防卫社会为由,恣意限制个人自由,不能牺牲过多的个人权利以换取社会整体利益。数据主义与家长主义的“完美”融合将导致全景敞视的绝对社会控制。因此,以数据为中心的数据主义是一种技术神话,严重偏离了以人为本的价值观。正如尤瓦尔·赫拉利所说,数据技术的全面扩张可能导致人文主义的崩塌,数据主义将取代人文主义成为一种新的世界观或宗教,故而应警惕与批判数据主义。

      实际上,技术与人文精神无法被截然分割,信息技术由人发明并为人服务,所以,数据的使用不能违背社会正义准则,技术治理必须从工具理性回归价值理性。技术治理对秩序、安全、效率、概率的追求受数据主义世界观的影响颇深。对技术治理扩张的警惕和限制,对数据使用正义观念的求索,是人文主义世界观的体现。以数据为中心的数据主义与以人为中心的人文主义在价值悬设上的抵牾,与科学主义与人文主义的冲突一脉相承。数据主义是科学主义在大数据时代的新形态,人文主义则要求,一般性的社会正义观念应向数据正义转型发展。

      总之,面对总体价值冲突的加剧及其背后的世界观分立,必须引入一种评价数据或技术使用正当与否的理论分析框架,以标定技术治理的价值导向,回应技术治理的正当性危机。

      三、数据正义的分析视角

      关于数据使用的正义观念、正义准则,可用“数据正义”(data justice)这一范畴来表述。近年来,数据使用与社会正义这两个主题的交叉地带颇受热议,欧洲兴起的数据正义理论为技术治理的正当性思考提供了分析视角,可将技术治理置于数据正义的正当性分析框架下进行价值权衡。那么,数据正义理论究竟是一种什么样的分析框架?这有赖于对数据正义的思想渊源与核心观点的深入把握。

      (一)数据正义的思想渊源

      正义理念对犯罪的技术治理至关重要。人们为防范数据使用中的不公平对待,必须考虑“数据”和“正义”这两个主题的交叉地带———“数据正义”,而不能局限于数据在单一领域的应用,应立足于“社会和政治正义准则”的高度,探索数据正义的理论框架。作为衡量社会发展的理念,正义观念和正义理论随时代变迁而不断发展。在大数据浪潮下,促进发展的数据正义成为亟待被研讨的理论焦点,因为在大数据社会,没有数据便不能作出决策,不能采取行动,没有数据正义就无法实现社会的公正发展。目前,理论界对数据正义的探讨尚处于初级阶段,但亦有一些研究不乏真知灼见。荷兰阿姆斯特丹大学的“玛丽·居里”博士后Taylor从法治视角对数据正义作出了阐述,提出了数据正义的三个核心观点———数据使用的“可见性、事先约定、防范不公平对待”。这一研究初步揭示了数据正义的理论内涵,触及到了数据正义的实现方式,与著名经济学家阿马蒂亚·森对正义理论的发展存在着颇多契合之处。

      数据正义并非是先验固定的,而是从一般性社会正义观念中延伸和发展出来的。在正义理论的知识谱系中,阿马蒂亚·森是继罗尔斯之后的标志性学者。罗尔斯提出了“作为公平的正义”,探究理想状态的正义模型;而阿马蒂亚·森则基于开放性、比较性的思路,关注社会现实中的不公平对待,将自由作为发展的目标和促进发展的重要手段。相对于罗尔斯,阿马蒂亚·森更关注正义在现实社会条件下如何实现,他着眼于以现实的方法推动正义理论的研究范式从先验制度主义向现实主义转换。在他看来,思考正义问题的方式必须契合社会实践的最紧迫需要,这意味着,应摒弃以罗尔斯的理论为代表的那种旨在建构某种“完美正义”理想的“先验制度主义”理论进路,转向一种以识别和剪除现实世界中的各种“明显不正义”为目标的理论进路。阿马蒂亚·森强调,“正义论的起点不是‘什么是完美的正义社会’,而是‘什么是不正义社会’;正义论的终点不是实现理想中的正义社会,而是使具体、现实中的社会不断趋向正义”。

      阿马蒂亚·森的正义理论构成了数据正义理论的思想渊源。其一,阿马蒂亚·森关注现实社会中具体的不公正现象,以反对非正义为标签。这种现实主义的分析思路为关于数据正义的理论思考所承袭,数据正义正是萌发于对数据使用中诸种不公平对待的反思。其二,阿马蒂亚·森认为,由于存在着多个不同的正义缘由,因此应以比较的方法对各种正义缘由进行判断、权衡、排序及选择。当然,数据正义理论并非彻底倒向了社会安全或个人自由等一元正义缘由,而是承认各种正义缘由均有其正当性,应以正当性标准作为理论探讨的基点。其三,阿马蒂亚·森强调,自由在诸种正义缘由中具有优先地位,“自由绝对不能被降格为其他事物的补充,自由在个人生活中占有非常特殊的地位”。他以自由来看待发展和公正,认为个人自由是社会发展的目标,保障自由是促进公正的方式。数据正义理论继承了阿马蒂亚·森关于自由和发展、公正关系的阐述,重视个人权利及个人有资格从事某种活动的能力,以保障自由和权利的方式推动社会治理走向良政善治。如果说之前处于上半场的互联网变革是在倡导创新和效率,那么,进入下半场的互联网革命则更注重公平和权利。可以说,数据正义理论承袭了阿马蒂亚·森所提出的促进正义的视角、方法和分析框架,它根植于信息社会的时代背景和现实需求,发展了现实主义的正义观。

      (二)数据正义的核心观点

      数据正义是一种关于如何使用数据才能实现个人自由和増进社会福祉的价值观。Taylor所提出的关于数据使用的“可见性、事先约定、防范不公平对待”这三个核心观点构成了理解数据正义的理论基础。

      1. 数据使用的可见性

      “数据使用的可见性”有两层涵义:一是政府、企业对个人数据的采集、使用及相应的监管流程对公众是可见的,以此防范数据使用中的不平等。也就是说,数据监控的方式、内容、流程等均应对社会公开。二是政府、企业在使用个人数据时应注重保护隐私,使隐私信息处于对第三方“不可见”的状态,以防范因数据滥用而导致个人隐私被侵犯。数据使用的可见性包括对社会公众可见和对第三方不可见的双重实体要求,指向国家在大规模数据监控中的道义和责任,旨在通过为数据控制者设定义务的方式,明确消除不公平对待的法律依据,以此圈定个人在技术治理中所享有的自由边界。

      所谓“对社会公众可见”,是指政府和企业的数据使用范围、方式、目的、机制、流程等应对社会公开,保障民众对数据监控的知情权、参与权、监督权,这涉及监控权力运行的透明度和社会信任问题。具体来说,技术治理中的可见性意味着数据监控所涉的具体数据项有哪些,实施特定监控的治理主体是谁,使用何种手段或技术,拟为达到何种目的而监控,监控对象的倾向性如何,预测性执法所依托的算法的可解释性如何,“威胁评分”或“大数据黑名单”的内在规则是什么,监控的成本由谁负担及收益由谁享有等事项应被法律明确,从而实现对社会公开的目标。

      所谓“对第三方不可见”,是指尽管个人数据以维护公共安全之名被“国家之眼”所凝视,但对治理主体以外的第三方应绝对保密,应防范个人信息被滥用,应确立泄露及不当使用数据行为的法律责任及问责机制,促进对个人自由的保障。“监控就是监控,不管是通过人还是通过计算机,多少都要侵犯个人的隐私和自由。数据库一旦建立就应该严格保护,否则很容易被滥用。”对第三方不可见强调治理主体的数据保管义务和数据安全责任,是判断数据使用有无不公平对待的重要标准。随着平台企业作为参与主体在一定程度上获得了对违规违法行为的治理权力,监控职能开始从政府向企业延伸,政府和企业在信息收集、监控、调查、隐私保护等活动中的界线开始出现一定的交叉甚至模糊之处。由于参与治理的主体范围不可避免地扩大,对政府的数据安全义务要求同样适用于平台企业,所以,数据使用的可见与不可见要求也是平台企业履行平台责任的重要内容之一。

      2. 技术使用的事先约定

      “技术使用的事先约定”(以下简称事先约定)是指,政府及企业对大数据技术的应用内容必须与相关群体、潜在用户进行事先约定。技术既是治理的工具,也是治理的对象。“事先约定”以技术为治理对象,要求技术的使用以社会公众看得见的方式实现。它类似于安装APP之前的用户同意程序,事先约定好技术的使用将对个体或群体产生怎样的影响,告知将采集哪些个人数据及如何使用数据,告知用户对被采集的个人数据享有哪些权利及怎样共享数据的利益等事项。“事先约定”是赋予个人对数据使用的同意权及知情权的关键程序,也是欧盟《一般数据保护条例》(GDPR)中的重要原则。该原则体现了阿马蒂亚·森“以自由看待权利”的理念,要求将技术选择的自主权赋予个人,提高了个人对自身数据的掌控能力,强化了对隐私权的保护。在“Google隐私案”中,欧盟法院对“个人数据”的概念和“数据访问权利”作出了法律阐述,也确认了“事先约定”的原则。正义的实质在于询问人们需要什么,而不是人们主张什么权利,“事先约定”为个体享有信息自决的选择自由提供了程序性保障。

      “事先约定”以往多见于民商事活动,其在犯罪治理领域能否被一体适用?实际上,犯罪治理中的数据使用仍需遵循事先约定,只是有别于民商事活动中场景化的用户同意。犯罪治理中的事先约定和用户同意需通过制度层面、整体意义的法律授权来实现,通过《网络安全法》和即将出台的《个人信息保护法》《数据安全法》等法律法规将个人同意的权利和约定的事项以立法形式让渡给有关部门,赋予其进行数据采集、使用、保管等方面的法定职责。“制度因素在寻求公正方面具有重要作用。经恰当选择的制度,将与个体及社会行为的决定因素一道,对推动公正具有重大意义。”作为正义的实现方式,事先约定以法律的精确性弥合了权利和道德主张的模糊性,为减少不公平对待和实现个人自由提供了法治保障。

      3. 反对不公平对待

      阿马蒂亚·森认为:“着眼于现实的视角更容易使人明白,消除赤裸裸的不公正比寻找完美的公正更重要。”到目前为止,数字革命依然停留在技术层面,因数据使用而产生的不公平对待伴随着技术的进步与日俱增,对不公平的认识和应对停滞不前,数据监控和社会公正的关系亟待被探讨。有学者对不公平对待的国外现状进行了系统观察,进而指出:数据监视中最大的负担一直由穷人承担,所以政府应确保不滥用国家福利基金和其他公共基金;数据执法通常不平等地关注贫民区,因为这里集中了特定类型的犯罪;监控者对高收入人群和非法移民采用了更具侵略性的跟踪手段。在算法社会,一个貌似好用的系统往往已便利到只见结果而不见过程的程度。随着算法决策的泛在应用,算法偏见及歧视性执法等不公平对待将愈演愈烈,一旦算法决策等技术应用成为个人生活中根深蒂固的一部分,成为被设定好的前置条件,人们就很难再认清它的本来面目,更难以对其作出实质性的批评。

      技术治理所面临的最大的“灰犀牛”莫过于数据使用的不公平对待,这种不公平对待将威胁个人自由。必须反对不公平对待,反对因种族、身份、遗传、健康状况、经济地位、职业等原因而产生的歧视性执法,警惕公权力以算法之名侵蚀个人权利,防范个体因陷入“数字鸿沟”而无法参与治理。算法不能替代律法,技术治理不能唯数据主义,反对不公平对待已成为数据正义对技术治理的底线性要求。

      综上,“可见性、事先约定、反对不公平对待”这三个核心观点是对初创中的数据正义观念与理论的凝练,并搭建出了数据正义的分析框架。伴随着人文主义的复兴,信息社会的正义观念处于快速发展状态,数据正义的理论内涵将不断得到丰富,数据正义的分析框架亦将愈发具有理论说服力。

      四、数据正义的正当性要求

      基于数据正义的价值权衡是一种探寻数据使用的正义缘由的过程,Taylor提出的上述三个核心观点为数据使用的正当性提供了理论依据。“可见性”关注数据开放和隐私保护问题,对治理主体提出可见与不可见的实体性要求;“事先约定”强调技术选择的自主权,以立法授权作为技术治理的事先约定途径,从权力制衡角度对治理主体提出程序性规制;“反对不公平对待”根据实体和程序要求对数据使用的不公平现象进行反思。由此,以数据正义锚定技术治理的价值导向,可获得如下价值判断:

      其一,数据正义反对一元的价值模式和绝对的数据控制,强调技术治理不能以维护安全为名肆意扩张,技术治理的发展是一种迈向数据控制且超越数据控制、技术赋能与技术赋权兼顾的有限扩张。

      其二,数据正义注重对数据权力的制衡,关注技术治理的社会参与,通过促进个人数据权利与政府企业数据权力均衡运行的方式,实现“政府、企业、个人”三元主体关系的结构优化。

      其三,数据正义对技术治理的实体性要求与程序性规制离不开数据法的制度建构,故应以数据正义为数据法的立法理念,为数据监控的运行划定法治边界,以法律来控制技术治理的有限扩张。

      其四,数据正义呼唤技术治理回归人本导向和权利本位,以技术赋权超越数据控制,基于被害预防立场提升公众参与的广度与深度,推动技术治理从封闭式管理走向开放式治理。

      上述价值判断蕴含着数据正义对犯罪技术治理的正当性要求,可将之分别凝练为犯罪技术治理的有限扩张、关系均衡、法律控制、技术赋权。这四个要求分别指向犯罪技术治理价值导向的不同棱面,共同构成评价数据使用行为正当与否的标准。之所以说是共同构成,是因为这四个要求是整体性、综合性的正当性要求,对任一要求的违反都将在很大程度上对犯罪技术治理的正当性构成损害。在此,本文结合“冒烟指数”、平台治理等应用实践,阐述四个正当性要求的理论内涵。

      (一)超越数据控制的有限扩张

      “有限扩张”要求警惕基于家长主义的过度监控和对数据控制的过度依赖,防范陷入“技术乌托邦”误区。技术治理在范围和方式上有其作用边界,尽管其适合于具体情境中和特定条件下的微观战术执行,但不擅长宏观的犯罪治理战略设计;其精于数据分析,但无法替代人与人面对面打交道时的那些工作。仅凭大数据和AI,无法建构高度透明、完美可控的社会秩序,因为数据控制仅是犯罪治理的一个基础环节。面对“智慧治理”热潮,必须正视数据控制的有限性,不能陷入体制性防卫过当的误区,不能试图通过某种关于智慧建设的社会工程来实现犯罪预防的“毕其功于一役”。毕竟,犯罪的减少主要依赖于社会发展和城市更新、教育进步、充分就业等诸多因素的共同作用,有限扩张亦是对犯罪治理规律的一种适应。

      技术治理的有限扩张要求治理主体有义务证明数据监控是为实现特定的正当目的而不得不采取的必要行动,本文以“冒烟指数”为例,阐述有限扩张的正当性根据。

      其一,技术治理的有限扩张应具备合理的正当目的、充分的必要性和有效性。近年来,以网络非法集资为代表的涉众型经济犯罪的发案数量居高不下,不仅给广大投资人造成重大经济损失,还严重威胁到金融监管秩序和社会稳定。传统金融监管对这类犯罪应对乏力,已是不争的事实。引入“冒烟指数”软件以预警非法金融活动,契合大数据时代犯罪治理的新趋势,体现了预防优先的理念,且已取得了较好的监管效果。该方案被北京市金融工作局等150多个监管部门使用,对上百万家金融机构进行风险摸排,成功预警了6000多家从事非法金融活动的公司。这一治理创新不仅具有明确且具体的正当目的,还具有较强的科学性、经济性、针对性和可操作性,故而构成了一种必要且有效的治理扩张策略。

      其二,从数据使用的外部关系看,有限扩张要求在整个犯罪治理流程中对数据监控的应用具有明确限定,应将监控限定于线索识别等适合数据分析发挥作用的领域。“冒烟指数”专注于违法线索识别,致力于金融企业风险评估这一微观任务,仅系犯罪治理流程上的初始环节。根据数据分析结果,后续还将开展其他的治理策略。这种创新并不属于过度的数据监控,包含这种创新的整体犯罪治理策略必将超越单纯的数据控制。

      其三,从数据使用的内在要求看,有限扩张要求数据使用行为必须符合可见性和事先约定原则。“冒烟指数”软件在方案中向社会公开其所需要的数据项及技术路线,相关数据由监管部门合法掌握或依法获取,故符合数据使用的可见性。鉴于信息社会严重的“制度滞差”,金融监管部门和公安机关对技术使用的事先约定或对此类科技监管的法律程序性要求(如授权、告知、征求意见、听证、评估、监督等流程)亟待在《个人信息保护法》等法律法规中被明确。但值得注意的是,《网络安全法》第54条规定了针对网络安全事件的数据收集和监测、风险评估、风险预警等内容,第55条规定了网络运营者应采取技术措施消除安全隐患等内容,这些规定已初步体现了针对网络安全事件进行数据监控时的可见性和事先约定原则。

      (二)基于结构视角的关系均衡

      数据正义要求实现国家权力与社会权力、数据控制者的数据权力与个人数据权利的关系均衡,这种关系均衡是技术治理的体系结构实现优化的底层逻辑。

      传统的犯罪治理模式依靠党和政府的组织化调控,自上而下地开展,这种治理结构的组织度高,整体性强,一元化特征显著,但社会参与较为有限。如何引入社会力量参与治理,是一个长期困扰犯罪治理结构优化的顽疾。随着信息技术对社会结构的重塑,治理权力逐渐从政府外溢至企业和个人,“政府、企业、个人”三元主体的合作与制衡获得改善契机。信息社会在组织特征上表现为在线平台社会,基于在线平台的犯罪治理策略显示出了极强的发展潜力,比如,各类涉网犯罪的不法分子一般具有平台用户的数字身份且依附于特定平台而活动,故根据相关平台责任要求,平台企业对平台用户所实施的诈骗、赌博、洗钱、侵犯知识产权等违规违法行为往往具有日常管控、先行处置及线索移送等治理权力。这种平台治理具有引入市场机制、依靠平台企业、挖掘平台潜力、依循互联网思维等特征,催生出一种政府监管平台企业、平台控制者管理用户的双层治理结构。科技企业凭借技术、平台、数据等方面的优势,在技术治理中的作用愈发彰显,获得了更多的准公共权力。

      相对于政府和平台企业的深度合作,分散的个人被在线平台吸纳为用户,个人借助平台发声,用户与政府部门的在线交互形塑出了全新的线上回应型治理策略。例如,在“昆山反杀案”等热点案件中,公众在社交平台上发表意见并引发社会大讨论,而政法机关则及时反馈、引导和回应民意,这有助于实现热点案件的正面社会效果。正如在线平台使企业获得参与技术治理的数据权力,普通个体也能从平台治理中获得更多的参与权利。浙江嘉兴的“社会治理云平台”就是以平台对个体赋权的典范,该平台的“微嘉园”模块探索出一条依靠和发动群众的线上网格化治理的新模式。“社会治理云平台”通过微信群将每个网格范围内的居民联系在一起,是典型的综治平台而非社交商业平台。平台治理不单实现了平台企业的参与,还促进了普通个体对犯罪治理的共治共建。平台治理成为推动三元主体关系走向均衡的关键策略。

      (三)源自社会共识的法律控制

      大数据虽然能够搭建愈发严密的全景式监控,但无力回答“人类需要什么样的智能社会”及“如何制衡数据权力”等问题。数据正义理念致力于探求关于数据监控的社会共识的最大公约数,呼唤将其贯彻至《个人信息保护法》等法律当中。这要求将“冒烟指数”等基于算法自动化决策的预测性执法置于法治轨道。

      一方面,立法授权即为事先约定,这是凝聚社会共识、实现权利让渡的程序性要求。个体在相当程度上被数据分析和智能机器所支配,但自由不能靠智能机器来赐予。只有在法律授权和事先约定下被监控、被编码、被计算、被秩序化,个人自由才能获得保障,才能防范数据控制者的超级权限与绝对控制。“冒烟指数”等自动化决策应用牵涉上百万家金融企业及相关人员,故应在《政府信息公开条例》及未来的数据法立法中明确监管部门使用各类数据的程序性要求,赋予监控和自动化决策所涉及的个体或企业获得人为干预、复核的权利与对自动化决策决定提出质疑、申辩的权利。算法的自动化决策和识别必须被辅之以人工复核程序,以保障算法决策的公平性,而当算法决策不当,给社会及个人造成现实危害时,金融监管部门应承担不利的法律后果。目前,我国尚未制定《算法问责法》,但这并非意味着不能对算法决策结果进行必要的评估和问责,算法的使用者或数据控制者有义务减少算法决策可能造成的现实危害。

      另一方面,数据监控和算法决策的实体性要求应对社会公众可见,即数据监控的实施部门、范围、对象、方式、期限、地点等事项应向社会公示,尤其应将数据监控的技术路线和实施机制予以公开,听取公众意见,接受人大监督。由于牵涉商业秘密、市场竞争等原因,“冒烟指数”的研发公司及金融监管部门不可能对社会完全公开其技术方案中的每一个变量和算法的全部细节,但公布自动化决策的详细规则、应用指引、软件所涉数据类型及技术路线则是保障数据使用可见性的应有之义,旨在以可见性减少技术治理所遭遇的社会抗拒。

      (四)回归价值理性的技术赋权

      正义意味着承认和尊重权利,数据正义呼唤信息技术的赋能与赋权的有机统一。技术赋能指向社会安全防卫,技术赋权则关涉保障个人自由免受数据监控的威胁。在信息社会,“社会的主体结构从分层转向结网,集中在政府的权力开始分散,权力的最终流向是社会、是大众,是一个个独立的公民个体”。网络赋予了个人前所未有的知情、表达、参与、监督公共事务的途径,技术赋权则意味着个人以拥有数据权利的方式分享大数据社会福祉。数据权利相对于政府企业的数据权力而言,既是个人对自身数据所享有的利益,也是数据正义在个体层面的实现方式。

      “冒烟指数”在技术赋权上的最佳应用莫过于向社会提供查询金融企业信用风险评分的数据接口,以指导广大投资人趋利避害,防范风险。这一正当性要求并非针对以商业利益为导向的金融大数据公司,而是对公共服务导向的金融监管部门提出的。对于金融监管部门来说,防范个人投资风险不仅是其本职工作,更是为维护社会稳定大局而必须承担的使命。近年来,频繁爆雷的P2P平台的被害人人数动辄上万,有的案件的被害人人数甚至多达上百万。从源头治理的视角来看,为投资人提供金融企业信用风险评分可谓最好的投资依据与最优的被害预防策略。当然,金融监管部门为社会提供信息的方式(有偿抑或无偿)、提供信息的具体内容和形式尚待被进一步思考,但将大数据分析所获取的有用信息分享给社会公众,是技术治理回归权利本位、人本导向与政府为社会提供大数据社会福祉的必然选择。

      五、犯罪技术治理趋向数据正义的实现路径

      有限扩张、关系均衡、法律控制、技术赋权的正当性要求为犯罪技术治理的转型发展提出了“超越数据控制”的新方向。重视技术赋能、迈向数据控制处于犯罪技术治理的1.0阶段,走向赋能与赋权均衡发展、超越数据控制则系犯罪技术治理的2.0阶段的主要标志。因此,犯罪技术治理的价值诉求绝非简单倒向安全与自由二者中的某一边,而是在犯罪技术治理从1.0到2.0的迭代发展中以赋能与赋权的均衡发展促进数据正义。具体来说,趋向数据正义的实现路径包括四方面内容:

      (一)以数据权利厘定数据监控的法律边界

      数据正义要求犯罪技术治理坚持人本导向和回归权利本位,以技术赋权超越数据控制,根据数据权利为数据控制者标定义务,以数据权利与数据控制者义务共同厘定数据监控的边界。“个人数据权利是保护自然人对其个人数据被他人收集、存储、转让和使用过程中自主决定的利益。”作为监控的法律制衡因素,数据权利不是单纯的私法问题,而是还具有浓郁的公法属性,其指向数据主体因自身数据被数据控制者在社会治理中采集和使用而应享有的权益。面对个人数据汇聚于“数据巨机器”的社会景观,数据权利面临着数据监控的严重威胁。在法律上界定与明晰个人对自身数据的所有权、知情权、同意权、访问权、更正权、可携带权、被遗忘权及隐私权等权利,构成了制衡数据监控的法治选项。

      有别于民法从人格权、财产权角度对数据权利展开的研讨,犯罪学更关注数据监控与数据权利之间的关系,以数据权利厘定数据监控的法律边界。但遗憾的是,数据权利保护在我国尚缺乏系统的法律依据,《民法典》等法律的规定尚不足以完全承担起系统规范数据使用行为的重担。数据监控在实践中往往先于规制数据使用的法律而存在,监控的决策和实施时常处于秘而不宣、只做不说的不透明状态。在《个人信息保护法》和《数据安全法》尚未出台的背景下,鉴于权利保护与义务履行的相互依存关系,数据权利的实现离不开数据控制者的义务的履行,故若以数据控制者义务的履行来探究数据权利保障和法律边界设定,不失为一条可行路径。

      在消极数据权利层面,消极数据权利以保护自由为核心,强调免于数据控制者的不当干涉,指向数据控制者在数据使用中的各种强制性义务和禁止性义务的履行。这些义务要求数据使用行为应避免出现算法偏见、歧视性执法、隐私泄露等不公平对待。隐私是信息文明的基石,“也许最重大的侵害还不是观察和摄像本身,而是对于观察到的信息的不当利用如披露、公开和用于商业目的等”。因此,数据控制者对数据负有谨慎使用、安全保管等义务,对于因数据使用和保管不当而引致的不公平对待,应建立起投诉、纠错乃至问责等机制。

      在积极数据权利层面,积极数据权利以促进平等为核心,既指向数据控制者积极义务的履行,包括政府的数据安全义务与企业的平台管理、告知、更正、删除、保持透明度、限制处理等义务,也强调数据使用行为应遵循数据正义的可见性和事先约定原则,要求明确数据控制者所负有的监控职责、监控的类型与目标、监控所需的具体数据项、监控在不同群体中的倾向性及其理由、监控结果的应用方式、监控的合法性依据与正当程序等内容,做到在实体规定上清晰可见,在程序规则中事先约定,以此引领数据监控走上法治轨道。

      值得注意的是,数据监控的法律边界可能并不是极为清晰和明确的。由于权利让渡以社会安全防卫的必要为限,所以,鉴于技术进化和安全防卫需求的变化,监控所需的个人数据的范围亦处于持续变动状态,这预示着,数据权利的相对性可能是一种常态。尽管数据监控的最小化原则已逐渐成为社会共识,但最小化的标准往往是模糊的。同时,数据权利和数据控制者的义务均依赖于特定语境和场景的设定,GDPR在赋予数据主体权利的同时,也将权利还原到具体语境与社群当中,在具体语境与社群中判断人们的预期与权利的边界。在不同的城市空间、公共场所与非公共场所、现实空间与赛博空间等监控场景下,法律边界存在较大差异亦是常有之事。上述数据权利的相对性、模糊性、场景性共同导致了数据监控的法律边界存在着大量的模糊地带和可被灵活调整的空间。可见,数据监控的法律规制必然是一个长期渐进、反复博弈的过程。

      (二)以算法治理打开预测性执法的技术黑箱

      基于算法决策的预测性执法在犯罪治理中发挥愈发重要的作用。数据监控是“数据巨机器”的输入端,算法决策属于中间环节,预测性执法则是“数据巨机器”的输出端。鉴于算法决策在识别高危人员、再犯风险评估等领域被广泛应用,算法被视为一种社会权力。算法权力的运行存在如下问题:其一,算法决策的透明度有限,预测性执法时常从算法黑箱中输出结果,对于某些多层神经网络系统的复杂性,甚至连它的设计者也无从理解。其二,算法决策的准确性屡遭质疑,训练数据因随机性不足、歧视偏见等原因而存在误差,导致算法偏见长久存在。其三,预测性执法将法律问题简化为基于评分规则的数学问题,会引发系统性歧视、隐私弱化及违反正当程序等负效应。概率分析扭曲了人们对何谓公正惩罚的认知,刑法的规范价值因此被忽视。其四,算法决策具有有限性,算法仅能对硬数据进行冷识别,而无法对软数据进行热识别。“尽管数据是对‘事实’的记录,但‘事实’中蕴含的社会实在不可能简单地被还原为数据。”为防范算法权力被滥用,算法治理成为了数据正义的内在要求。对预测性执法的算法治理,应遵循法律之道,以律法监督算法,围绕自动化决策的可见性和事先约定的法律实现,关注算法决策的可解释性,増强算法的透明度,明确算法设计者、使用者的法律责任,发现和消除算法中所隐含的结构性偏见,警惕歧视性执法对个人权利的威胁。

      第一,从制度设计上看,算法决策和预测性执法的开展离不开充分的法律依据。在大数据时代,应避免社会治理和犯罪治理陷入计算机模拟的风险、陷阱之中。在运用技术预测重大社会活动、执法活动时必须慎重,应在法律中明确预测性执法所涉各类算法的类型、功能、运算规则及其对社会的具体影响等。在算法应用之前,应设计必要的伦理审核程序,以《数据安全法》《个人信息保护法》等数据法为合法性与正当性依据,通过正当程序向社会公开预测性执法的启动、评估和实施过程。

      第二,从运行效果上看,支撑预测性执法的代码和算法并非一成不变,算法运行应在循证思维下被监督、能纠错、可追责,根据预测效果检验及优化算法。算法设计者和使用者在预测性执法中的法律责任是反对不公平对待的法律保障。“算法是由人类开发的,反映的是开发者的利益、偏见和缺陷,我们有义务仔细审查并在适当时机管理监管这些算法。”算法一旦出错,就将给特定个体带来实质性侵犯,所以,预测性执法必须被配套算法决策的纠错和救济机制,算法的设计者、使用者的法律责任也必须被数据法所明确。

      第三,从透明度上看,技术治理不能被“算法黑箱”统治,而应遵循可见性原则増进算法运行的可解释性。在思路上,以了解算法作为监督算法的前提,针对不同的治理目标和应用场景,厘清各类算法的运行规则,摸索算法决策与经验决策的融合策略;在技术上,尝试以算法打开“算法黑箱”,研发解释和监测算法运行的算法;在机制上,将自动化决策处理数据的有关信息和流程向社会公开,使公众了解预测算法是如何作出判断和决策的,理解何种行为可能增加被识别、被监控、被干预的概率,祛除以算法预测犯罪的神秘性。

      第四,从代码属性上看,预测性执法的智能系统必须被植入道德代码,将数据正义的正当性要求、数据伦理的道德规范、数据权利的法律规范转化为代码,嵌入算法决策的运行流程。技术治理所依赖的智能机器必须是道德机器,以数据正义作为社会控制系统的源代码。由于嵌入道德代码可能引发预测性执法系统的“道德过载”,即安全、自由、隐私、效率等多重价值的冲突,所以应按照数据正义的正当性要求,针对具体场景和情形预设各种价值的优先等级,结合决策者的经验和其所处社会的价值立场,将算法对现实的干预置于可控状态之下。

      (三)对权力外溢至平台企业的均衡治理

      科技企业的技术、数据和商业监控渠道是犯罪治理的重要资源,其所创设的在线平台系统对犯罪治理的创新影响深远。社交、网购、搜索、出行等各类平台连接、整合、重塑了世界,社会结构的网络化与社会治理的平台化催生出治理主体间的新型合作关系,犯罪治理的权力从国家外溢至社会,流向平台企业,使企业在履行平台责任时获得了裁定违规、监测及上报违法、先行认定和处罚等准公共权力。引导平台系统服务犯罪治理,促进国家权力与社会权力在平台治理中均衡运行,已成为数据正义的内在要求。

      1.  以平台治理重塑犯罪防控中的政企关系

      平台意味着服务导向和用户本位,其所倡导的扁平化、交互式、开放性的平台治理成为犯罪治理的新策略,平台治理构成了对科层制组织架构和传统综合治理方式的有益补充。当前,网络犯罪已成为第一大犯罪类型,网络平台所构筑的赛博空间是违法犯罪及网络黑产滋生的土壤。为此,政府以少数平台企业作为网络犯罪控制的关键节点,通过平台企业管控平台生态内的网络违法,而平台企业一般都会积极响应政府的政策引导。这种通过在线平台防控犯罪的新策略重塑了犯罪治理中的政企合作关系。

      一方面,平台治理加重了平台控制者的义务,赋予其更多的网络社会管理责任,平台企业也相应获得了一部分监管权力,而不再仅是治理对象。在2020年3月生效的《网络信息内容生态治理规定》中,有近1/4的条款直接指向了在线平台的主体责任,另有近1/3的条款直接指向了网络信息内容的生产者和使用者,且为平台企业监管网络信息内容的生产者和使用者提供了明确的法律依据。另一方面,政府相关部门将治理重心转移到了对平台企业的政策引导、规则制定、支持、督促及行政处罚等法律监管活动上。《网络信息内容生态治理规定》第31条规定:“各级网信部门对网络信息内容服务平台履行信息内容管理主体责任情况开展监督检查,对存在问题的平台开展专项督查。”该条款构成了网信部门监管平台企业的法律依据。可见,在走向合作的平台社会,平台治理开拓出了政府与平台企业间的两个层面、分层管控、相互联动的新型治理策略。例如,2019年,某地中级人民法院审理了一起利用视频社交软件侵害未成年人的案件。被告人以社交为名,收集儿童裸照和视频,以裸照威胁被害人,实施强奸、猥亵等违法行为。视频社交软件在低幼群体中的不良影响引发了社会关注。事后,在企业层面,涉事企业履行平台责任,开发了视频社交软件的青少年版本,并完善了关于数据使用、隐私保护的标准。在政府层面,国家网信办适时出台了《儿童个人信息网络保护规定》,立法机关则在修订《未成年人保护法》时增设了“未成年人网络保护”一章,为网络产品和网络服务的提供者、制造者和销售者设置了对未成年人的网络保护义务,建立了未成年人使用网络产品和服务的家长监护机制,从预防的角度实现了未成年人的利益最大化。如今,这种基于政企合作的平台治理正在冉冉兴起,在“网约车平台”乘客被害预防、“互联网金融平台”非法集资风险防控等领域获得了广泛应用。

      2. 政府和企业治理权力的均衡运行

      作为网络社会治理的入口,平台是防控网络违法犯罪的第一道防线。平台兼具市场和社会双重属性,平台企业兼有市场竞争主体和平台网络秩序维护者的双重角色。从权力运行上看,平台治理衍生出了两个层面的犯罪治理:其一,是企业对平台用户违规违法行为的监管;其二,是政府对平台企业预防违法犯罪活动的引导、支持、保障和监管。这两个层面的犯罪治理分层管控,相互联动。企业所履行的平台责任有时可被单独完成,比如,阿里集团、腾讯公司研发了阿里绿网和万象优图系统,可对直播平台中的色情信息进行人工智能甄别,但更多时候,企业在履行平台责任时,还是离不开政府部门的支持和保障。阿里集团每年向公安机关移送涉电商平台的违法犯罪线索超过1万条,但因取证难、异地协查难等原因,仅被刑事立案1500起左右。为此,阿里集团总部所在地的杭州市余杭区人民检察院设立了“电商检察联络室”,出台了网络案件证据指引,以便从司法适用层面保障企业平台责任的履行。

      平台治理促进了政企二元权力关系的结构优化。对平台企业来说,平台治理实现了治理权力从国家到企业的分权,改变了以往的治理主体单一、社会动员乏力和对策弹性不足等弊端,促进了政企互信互惠,推动了治理权力运行的机制创新。对政府来说,通过引入市场机制和借力在线平台,实现了信息社会的犯罪治理权力重组和再分配。分权不是简单地将网络违法的治理责任推给企业,相反,政府有责任完善平台治理的法治保障,促进平台企业治理权力和法律责任的对称,加强对政企合作协同机制的过程管理,完善对企业履行平台责任的法律监督,防范企业经营中的数据滥用和泄露、不正确履行或怠于履行平台责任等问题。

      3.  以平台创新促进发展式预防

      当前,基于平台创新的发展式预防正在悄然兴起。所谓“发展式预防”,是指一种通过科技创新、经济社会发展、城市更新等整体性治理战略而附随生成犯罪防控效益的治理策略。在线平台的兴起对发展式预防的推动极大,该策略的典型表现莫过于平台应用大幅减少了传统犯罪中的街面盗窃、抢劫的发生,比如,共享单车平台的出现使盗窃自行车成为历史,移动支付平台的普及使盗窃案数量骤降。鉴于平台系统已渗透至社会核心,起到了改造甚至生产社会结构的作用,所以平台创新已成为犯罪治理得到根本性改善的内在驱动。例如,区块链技术创设出了全新的社会互信平台,基于区块链的“身份链”项目呈现出了极强的社会治理价值。该项目原本是为向农民发放小额扶贫贷款而创设信用数据服务平台,但平台通过分布式数字账本创建和交换个人信息及身份记录,使信息交换的边际成本几乎为零,其以分布式记录和协作式激励机制支持分布式信任,催生出了人与人之间的多维信任体系。在被区块链技术所加持的自律型社会中,法治、技术和社群被分布式的信用数据协作紧密链接,这使经济领域的违规违法乃至犯罪的成本高到让人无利可图的程度,使非法集资等经济犯罪的实施变得愈发不经济,从而极大消除了涉众型经济犯罪的生存土壤。由于发展式预防蕴含着更多的治本成分,所以应深入挖掘平台创新的犯罪治理潜力,实现政府主导与平台创新的融会贯通,以此促进技术治理赋能与赋权的均衡发展。

      (四)以数据开放打通公众参与的数据接口

      在新的技术环境下,技术治理的正当性不单取决于治理绩效,更应根植于民众的有效参与和真心拥护。数据正义要求技术治理坚持用户视角和人本导向,及时回应社会公众的安全需求,将数据取之于民并用之于民,以实现大数据福祉的社会共享。民众不是被监控的对象,而是被保护的对象与治理的参与主体。在实践中,囿于普通个体既不掌握数据也不了解技术,公众参与技术治理的门槛已变得越来越高。如此一来,个体还能对犯罪的技术治理进行有效参与、表达及监督吗?因此,基于数据正义的技术赋权要求,应重视互联网对个人的赋权机能,以技术赋权消弭管理者与民众之间的数字鸿沟,以数据开放为公众提供参与治理的数据接口。

      数据开放蕴含着公众在利用数据后所获取的知情权、表达权、参与权及监督权等权利,犯罪地图或公共安全地图的公开是典型的技术赋权方案。一图胜千言,一目了然。公共安全地图能够展示出各类犯罪、交通事故、火灾、城市违建、公共卫生危机等事件的时空分布状况,构成了国民安全生活的行动参考。地图以可视化方式提升了国民对社会安全的能见度,为警民交互、回应型干预和被害预防提供了针对性较强的数据依据,在相当大的程度上消除了民众的被害恐惧。至于担心地图在被公开后可能被不法分子利用而回避防控干预的问题,笔者曾在《犯罪地图的公开》一文中对其作过系统专论,目前来看,这种对于不法分子可能利用地图的担忧是没有科学依据的。随着数据红利的日趋外溢,与犯罪地图或公共安全地图公开类似的数据接口还有很多。公众参与技术治理的价值不在于追求治理效率,而在于生产数据正义,让技术治理以看得见的方式得到实现。

      数据开放对保障技术治理的正当性意义重大,只有向社会公开治安及犯罪数据,公开数据监控的基本架构与运行机制,公开“威胁评分”的内在规则,才能为公众开展被害预防提供必要依据,有助于依靠社会力量将各类风险控制在萌芽状态。面对无所不在的数据监控,数据开放打破了管理者和民众之间的信息鸿沟、数据区隔,促进了社会互信和协作。数据接口的提供为民众运用技术维护权利与制衡监控提供了保障,使技术治理从封闭式管理走向了开放式治理。在算法社会,“数据巨机器”变得越来越聪明,但不能使其变得幽暗和冰冷,只有充分的公众参与才是技术治理坚持科技向善之方向的关键所在。

      结 语

      在加速进化的智慧社会,使犯罪治理迈向数据控制,不仅极为必要,而且已逐渐升格为犯罪学的“思维定势”。伴随监控技术与人的身体、生活日渐融合,全景式监控使人焦虑和茫然无措,技术赋能与技术赋权的非均衡发展引发了一系列不公平对待,加剧了社会安全防卫与个人权利保障的价值冲突。面对价值冲突,数据监控和算法决策的边界何在?个人怎样才能保有必要的自由?如何跨越个体与数据控制者之间的“数字鸿沟”?技术治理何以避免陷入“数字利维坦”的陷阱?这些问题亟待得到思考。由此,犯罪技术治理的正当性问题成为理论焦点。“历史的弧线虽然很长,但它总是向正义弯曲的。”数据正义视角的引入是一种可行的理论尝试,源自现实主义正义观的数据正义理论对犯罪技术治理提出有限扩张、关系均衡、法律控制、技术赋权等正当性要求,为犯罪技术治理从整体上趋向数据正义提供了实现路径。源自数据正义的正当性标准不仅是反思犯罪技术治理实践的分析框架,也是追问犯罪技术治理合法性的内在依据,更构成了实现犯罪治理现代化的价值引领。

      对犯罪技术治理进行价值权衡并非反对大数据应用,而是借助对于数据正义的价值思考来辨识智慧社会的发展方向,审视犯罪治理的人文主义本质,探索社会安全防卫和个人权利保护的统筹兼顾之道。在大数据时代,人们总是说“未来已来”,但社会发展不怕慢,就怕循环往复。在犯罪治理的现代化思潮汹涌澎湃之际,我们需要更好的而非更快的技术治理。数据正义诠释了何为“更好”的理论内涵,呼唤将技术治理所蕴含的超常和超强的控制性权力纳入法治轨道,回归人本导向和权利本位,迈向数据控制且超越数据控制,以技术赋能与技术赋权的均衡发展“建设更高水平的平安中国”。

    【作者简介】
    作者单位:吉林大学法学院

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码