情感计算的应用困境及其法律规制(演讲直击)
2021/7/20 9:17:28  点击率[261]  评论[0]
【法宝引证码】
    【学科类别】人工智能
    【出处】微信公众号:上海市法学会 东方法学
    【写作时间】2021年
    【中文关键字】情感计算;应用困境;法律规制
    【全文】

      一、情感计算技术的法律规制
     
      我国是世界范围内情感计算技术最为主要的研发与应用国之一。人脸识别、语音识别等感知智能技术的大面积应用为情感计算技术在近年来的迅速发展铺平了道路。该技术在我国的迅猛发展态势引发了多个域外研究机构的关注,其中不乏尖锐的批评之声。相较于丰富的实践而言,我国法律界对于这一技术的关注尚不充分,因此有必要对其技术逻辑、实践应用、现实困境和法律规制等重要方面展开专门探讨。
     
      二、情感计算技术的应用
     
      情感计算(affective computing)由罗莎琳德·皮卡德(Rosalind Picard)在1997年正式提出,意指“与情绪或其他情感现象有关的、产生于或有意影响情绪或其他情感现象的计算”。该类技术的终极目标是在“识别”基础之上使得计算机具备“模拟”自然人情绪的能力,并且能够根据不同情境、采取相应策略来“影响”自然人的情绪。也就是,让机器具备情感智能,能够以最佳的方式识别和调节(自己或他人)情感的能力。我国智慧教育建设中对情感计算的使用已经走在世界前列。浙江部分中学推行的“智慧课堂”项目可以通过教室前端的三个摄像头识别七种情绪(恐惧、快乐、厌恶、悲伤、惊讶、愤怒和中性)。 系统每隔30秒会进行一次扫描,实时分析出学生们在课堂上的状态。新东方推出“AI双师课堂”可以通过“慧眼系统”对每个学生的面部进行情绪识别,除了可以识别学生是否认真听讲,还可以辨别出“高兴、悲哀、惊讶、正常、愤怒”等情绪,老师可根据学生的情绪表现掌握学生对于课程内容的真实反馈,以对教学内容做进一步精炼与提升。除此之外,我国各地推动的智慧城市和智慧司法建设中也开始采用情绪识别技术。比如,“阿尔法鹰”的情感计算技术基于前庭情感反射理论,通过摄像头采集的人体面部视频流,分析头部和颈部微小肌肉振动的频率和振幅,计算出个人压力、侵略性和焦虑度等参数,甄别有自体原发性焦虑紧张状态的潜在可疑危险人员以辅助安检人工排查。
     
      三、情感计算技术的困境
     
      尽管情感计算在医疗、就业、教育、执法等领域具有广泛的应用前景,但不容忽视的是该技术的运用在面临三个方面的显著困境。首先是法律困境。情感计算与人脸识别等知名的生物识别应用不同,后者旨在识别个人,而前者则是识别个人的基础之上进一步推断一个人的内在情绪。因此,情感计算的应用会对公民基本权利造成不成比例的风险。这其中最为显著的就是对个人隐私权的直接侵犯。众所周知,情感是一种个人的内在感受。对于一般公众而言,控制情绪使其不轻易呈现是重要的社会规则,尤其是内疚、沮丧、恐惧、焦虑等负面情绪。在特定的情形下,人可能需要呈现一种虚假的情绪,典型的如“善意的谎言”。在公众场合通过非接触式的感知智能技术对公众情感隐私的分析具有“窥探”的意味,相较于人脸识别而言具有更强的“侵入性”,大大超出了公众在公开场合可以保持个人情感隐私的预期。其次是伦理困境。伦理学高度重视人类情感,影响情感的情感计算技术被认为会影响人的道德标准及自由意志。在大卫·休谟和亚当·斯密看来,所谓的错事,就是一种我们“道德情感”无法接受的状况。在将情感视作道德基石的哲学流派看来,情感计算应用在影响了情感的同时也就影响了人类的道德标准。与基于情感的道德理论相比,康德认为道德的基石是根据理智原则而不是感情来行使自由意志。我们知道,情感计算旨在模拟并影响人的自由意志,而自由意志在基础道德哲学中具有神圣不可侵犯的地位。在这个角度上看,情感计算影响情感的尝试就显得“不道德”。再次是技术困境。情感计算技术的底层依据来自心理学家保罗·埃克曼在1970年提出的“基本情感理论”。该理论认为人们可以从面部表情中可靠地辨别出情绪状态,并且此种表情与情绪的关联具有跨文化上的普遍性。然而,问题在于外在表达与内在情感之间的关联存在不确定性。相同的生理信息可能表达了不止一种情绪,而实际上理解情绪需要更多的情境细节支撑。与此同时,外在表达与情感之间的关联在世界范围内存在差异性。人们在不同文化、不同情况下,甚至在同一情况下,在沟通他们的情绪状态时,存在着大量的差异。
     
      四、情感计算技术的法律规制方案
     
      在明确了情感技术的广泛前景和现实困境之后,我们需要思考的问题是如何从法律上提供一套规制方案,推动该技术的良性发展。我认为应当以风险为基础打造差异化规制体系。这就是根据情感计算应用可能产生的风险强度来动态调整法律规制的类型与内容。一方面,要合理考虑情感计算应用对权利与伦理的影响强度与范围;另一方面,严格按照风险的等级差异,等比例提供规制方案,高风险对应高规制强度、低风险对应低规制强度。首先,对于属于“不可接受风险”范畴的情感计算应用完全禁止。这主要有三类:试图直接操纵、控制他人情绪的情感计算应用;追求不正当目的的情感计算应用,如激起特定人群积极情绪(暴力、好战)的应用;滥用技术,利用人性的弱点,比如未成年人、精神病人在年龄、身体或精神上的脆弱性从而扭曲个人情感的情感计算应用。其次,对于“高风险”情感计算应用严格限制,原则上被禁止,只有公共服务机构基于公共利益而展开,且需要配合以全流程的监管措施。所谓“高风险”是指那种可能严重影响个人权利,尤其是教育、健康、安全等基本权利的情感计算应用。这里的“严重影响”,是指基于情感计算的结果直接决定个人教育、社会保障、医疗、就业、安全、健康等基本权利的有无。实践中主要有四种类型:在教育系统中使用情感计算技术,用于确定进入教育机构的资格,或将对特定人群情绪控制能力的评估作为接受教育的一部分或者前提;在就业领域使用情感计算技术,用于人员的招募和甄选,决定晋升或解雇;在公共服务领域使用情感计算技术决定个人是否获得和享受某些必不可少的公共服务,如获得公租房、电力、电信服务等;在执法领域使用情感计算技术判断特定公众的危险程度或供述的可信度,以决定是否采用非羁押措施、缓刑等。其次,对于“中风险”情感计算应用原则上可以应用,但是要构建一套全生命周期的监管措施。所谓的“中风险”,是指那种中度影响个人权利的情感计算应用,具体而言,就是对个人权利产生实质影响,但并不决定特定权利有无的状态。这类应用可以通过风险管理机制、数据治理机制、技术保障机制、流程备份机制、信息透明机制、信息备案机制六大机制来实现全流程监管。因为时间原因,对此我不做过多展开。最后,将那些轻度影响或者不影响个人权利的情感计算应用划入“低风险”范畴,法律上原则上不施加明显的规制,只是做出最基础的透明义务要求。

    【作者简介】
    王禄生,法学博士,东南大学社会科学处副处长(主持工作)、研究员、博士生导师,兼任最高人民法院司法大数据(东南大学)基地执行主任、江苏省法学会大数据与人工智能法学研究会会长、中国法学会检察学研究会案管专业委员会副主任,主要从事人工智能法学、刑事诉讼法学、司法制度学方面的研究。

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
隐私政策
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码