对人工智能法学研究“伪批判”的回应
2020/1/14 8:37:55  点击率[90]  评论[0]
【法宝引证码】
    【学科类别】人工智能
    【出处】《法学》
    【写作时间】2020年
    【中文摘要】在人工智能时代的刑法学研究中存在不同观点和争议完全正常不足为怪。对人工智能刑法学探讨研究的前提应是对所涉对象、前人成果及相关概念全面了解,理性、客观地提出自己的见解,论述应实现逻辑自洽、自圆其说并言之成理。不应开展“为批判而批判”的“伪批判”。“伪批判”主要包括混淆概念型、移花接木型和自相矛盾型等三种类型。混淆概念型“伪批判”混淆了“人工智能”与“机械自动化”的概念。移花接木型“伪批判”将弱人工智能时代的特征“嫁接”到对强智能机器人刑事责任主体地位的探讨中,将强人工智能时代的特征“嫁接”到对弱人工智能时代刑事风险的探讨中。自相矛盾型“伪批判”中存在“像人一样思考”和“机器”含义的冲突以及“人造牛皮论”与“法人的人工类人格”内涵的抵牾。
    【中文关键字】人工智能;刑法学研究;伪批判;混淆概念;移花接木;自相矛盾
    【全文】

      一、引言
     
      随着人工智能技术发展逐渐走向繁荣以及各国对抢占人工智能技术“制高点”战略规划稳步推进,我们实际上已经跨入了一个全新时代——人工智能时代,这是继蒸汽时代、电气时代和计算机时代之后的第四次工业革命。应该承认,每一次新时代的出现都会给原有社会带来令人震撼的冲击和翻天覆地的变化,否则就不可能将其称之为“革命”。笔者认为,工业革命带来的冲击和变化不仅与科学技术的发展紧密相联,也必然要求包括法学在内的社会科学进行不断变革才能与之相匹配。科学技术的发展与社会科学的变革在很大程度上需要保持同步,这是历史发展的潮流所推动和决定的,是不以人的意志为转移的,无论理解还是不理解,也无论接受或者不接受,社会发展的规律就是如此。
     
      跟随人工智能时代发展的步伐,学界掀起了人工智能法学研究热潮。在社会科学领域,“百花齐放、百家争鸣”是学术研究的理想境界,不同观点的碰撞和讨论能使学者对某一问题进行更加深入、系统的思考以实现逻辑上的自洽性,并修正先前观点及论证中的缺陷和谬误。作为社会科学的法学研究(包括刑法学研究)亦不例外。近年来,法学研究者对人工智能法学问题的关注越来越多,并在人工智能生成物的著作权归属、智能机器人是否应有人格权、涉人工智能犯罪刑事责任分配等方面展开了讨论。其中,有关人工智能刑法学研究中的讨论焦点主要包括涉人工智能犯罪的研究有无必要,在涉人工智能犯罪中如何分配智能机器人研发者和使用者之间的刑事责任,应否对智能机器人研发者和使用者的过失行为专门规定相应的过失犯罪,强智能机器人应否具有刑事责任主体地位等问题。例如,关于对涉人工智能犯罪的研究有无必要的问题,持肯定说的学者认为刑法学者有必要深入研究涉人工智能犯罪,明确不同类型的涉人工智能犯罪的刑法规制路径;持否定说的学者认为无论发展到什么时候,智能机器人也始终是人类的工具,用现有刑法完全可以规制任何涉人工智能犯罪,没有必要专门从事此项研究。关于强智能机器人应否具有刑事责任主体地位的问题,持肯定说的学者认为强智能机器人具有在自主意识和意志支配下的辨认能力和控制能力,应具有刑事责任主体地位;持否定说的学者认为强智能机器人所谓的“辨认能力”和“控制能力”并非自主的,智能机器人始终是人类的工具,因此,其不应成为刑事责任主体,只需让智能机器人的研发者或者使用者承担刑事责任即可。诸如此类,不一而足。持不同观点的学者互相之间反复进行着商榷、讨论、回应乃至再回应。
     
      不同观点之间的碰撞和交流,使刑法学者们对上述问题的研究愈发深入,观点愈加公允。这理所当然会不断推进着人工智能刑法学研究的发展,也完全符合笔者最早提出开展人工智能时代刑事责任演变研究的初衷。但学术探讨中观点的交融和碰撞发生的前提是对研究课题所涉及的相关概念进行全面了解,总结、归纳前人的相关研究成果,从理性、客观的视角出发,提出自己的观点和见解,并尽力在论述时充分理解其他学者观点基础上实现逻辑自洽、自圆其说、言之成理。任何为了批判而进行的所谓“批判”,即使辞藻再华丽、言语再犀利、论证再巧妙,也终究会陷入固步自封、只能“自说其圆”的“伪批判”泥潭。笔者认为,人工智能时代是一个全新的时代,这一时代的产生、存在和发展已经并还将继续会对传统法学乃至刑法学研究形成巨大的影响和冲击,这显然是不言而喻且毋庸置疑的。法学研究者应有必要的心理准备,学会去芜存菁,认真研读和思考对于学术研究真正有价值的不同观点和意见并与之进行商讨;拒绝并剔除概念不清、张冠李戴、自相矛盾的观点和论述。只有这样,才能继续保持(而不是扼杀)人工智能时代刑法学研究的良好态势,修正人工智能法学研究的发展方向。依笔者之见,时下,我们应严格区分人工智能刑法学研究中的“批判”和“伪批判”。对于理性、客观、以学术探讨为目的的“批判”,我们理应取其精华以不断完善自己已有的理论和观点,并对这些批判中的不合理观点予以及时回应,进一步阐明自己的理论和观点。对于混淆概念、张冠李戴、自相矛盾的“伪批判”,应去其糟粕,明确指出其中存在的问题。笔者已在相关论文中对涉人工智能刑法规制问题的不同观点进行了商榷与探讨,在此不再赘述。本文着重对学界存在的人工智能刑法学研究的“伪批判”(笔者将所谓的“伪批判”分为混淆概念型、移花接木型和自相矛盾型等三种类型)进行回应。
     
      二、对混淆概念型“伪批判”的回应
     
      笔者认为,学说之间的商榷、反驳、批判或回应都应建立在统一话语体系之下。具体到人工智能法学研究领域,法学研究者在探讨相关问题时,以学界达成基本共识的相关概念的内涵和定义作为探讨的前提。否则,在模糊或杂糅了概念基础上的学术探讨会显得毫无意义,在此基础上提出的批判即是“伪批判”。笔者所论述的混淆概念型“伪批判”的主要特征是混淆了“人工智能”与“机械自动化”的概念。批判者提出关于“人工智能”的内涵难以界定,进而自创人工智能的“核心要素”,即交流沟通能力和自主性,以自创的概念作为依据,提出人工智能法学研究所涉及的大部分对象仅属于“机械自动化”的范畴而不是真正的“人工智能”,得出人工智能法学研究中的大量研究成果是“概念附会”的产物。笔者认为,批判者建立在自创概念核心要素并在有意或者无意模糊核心概念边界基础上提出的“批判”,没有真正揭示出人工智能法学研究中的争议焦点,也不可能针对现有的人工智能法学研究成果提出有价值的学术批判。由此而产生的批判,笔者只能将其归入“伪批判”之列。
     
      关于人工智能的含义,开创者约翰?麦卡锡将其描述为“让机器的行为看起来就像是人类所表现出来的智能行为一样”。虽然何为“人类所表现出来的智能”在科学、哲学、法学等领域内存在争议,导致有关对人工智能概念的争论从未停止,但是应当看到,“人类所表现出来的智能”并非“自然本能的必要伸展”,而是“自由意志的选择性扩张”,这是人与动物的本质区别所在。人的自由意志的来源应该是人的大脑。要使“机器的行为看起来就像是人类所表现出来的智能行为一样”,人类必须制造出能够替代自然人大脑功能的“机器”而非仅能替代自然人手脚等身体功能的机器。因此,能在一定程度上替代自然人大脑功能是人工智能不同定义之间的共同点。进行人工智能刑法学研究时,刑法学研究者对于人工智能的概念应求同存异,在基本统一的概念下展开相关研究,否则就缺乏研究或讨论的基础。笔者曾经提出,从普通机器人到弱智能机器人再到强智能机器人的“进化”史,即人工智能时代产生和发展的历史是一部智能机器人的智能从无到有、从少到多的历史;而因为只有自然人才具有智能,所以我们又可将人工智能时代中的智能机器人的发展称之为是一部 “机器”的因素逐步弱化而“人”的因素渐进增强的历史;同时也因为智能与人的意识、意志直接相关,所以我们还可将人工智能时代中的智能机器人的发展称之为是一部智能机器人的“智能”逐渐增强并对自己“行为”的影响和作用逐步达到“自控”的历史。进而言之,我们完全可以说,随着智能机器人的不断进化,自然人与智能机器人在对“行为”的控制与决定能力上存在着此消彼长的关系。具体而言,“智能”本来是人所特有的,人工智能技术便是人类创造了本来只有自然人才具有的“智能”的技术。将本来只有自然人才具有的智能赋予“机器”,从而使传统意义上“机器”能够在很大程度上,从简单地替代自然人的手脚等身体功能而发展到逐渐替代自然人的大脑功能,以开展相关活动。而此时的“机器”便不同于以往任何时代的“机器”,也即此时的“机器”实际上已经演变成了“智能机器人”。这也就是为什么会有“智能机器人”这一概念出现的根本原因。由此可见,“人工智能”技术与“机械自动化”技术的本质区别就在于是否能够替代自然人大脑的功能。能替代自然人大脑功能的技术是“人工智能”技术,不能替代自然人大脑功能而只能替代自然人手脚等身体功能的技术则是“机械自动化”技术。
     
      批判者从“人工智能”与“机械自动化”的非本质区别出发,将“机器是否具有自主性”作为区分标准,将“人工智能”的范围缩小,将“机械自动化”的范围增加,进而否定当前人工智能法学研究的成果。批判者甚至认为人工智能技术没有在我国普及,因为自动取款机、手机银行等没有社会沟通能力,没有自主性。笔者对此不能苟同。即使不考虑生产领域或者国防安全领域,仅考虑生活领域,我们也无法得出“人工智能技术远远没有在我国普及”的结论。时下,一个不争的事实是,人工智能技术已经并还将进一步渗透至我们日常生活的方方面面。对此,笔者在相关文章中已进行过详细论述,在此不再赘述。事实上,即使按照批判者提出的区分“人工智能”与“机械自动化”的标准为“是否具有沟通能力和自主性”,其想要论证的内容也是不能成立的。举例说明,当人们在购物平台购物时,购物平台会利用大数据分析方法探求用户的潜在需求并为用户提供个性化商品或服务,而在这一过程中发挥作用的便是人工智能技术。在这一过程中,智能机器人虽然没有与购物者进行面对面的沟通交流,但是其通过“观察”和“分析”购物者的购物情况,掌握了购物者的喜好,并据此向购物者发布、推送相关信息,吸引购物者再次在此平台购物,这种非面对面的沟通其实也是一种交流,且是建立在智能机器人“洞察”购物者喜好基础上的交流。而智能机器人对购物者喜好的“观察”和“分析”并据此发布、推送相关信息便是其发挥自主性的行为。不可否认,笔者描述的上述现象是普遍存在的。由此可见,人工智能技术已深入到我们的日常生活之中,绝非“远远没有普及”。再以ATM机为例,批判者认为其不属于智能机器人,因为“它只是银行人类柜员的一种替代设施,它只有自动化而没有自主性”。如果我们认真分析ATM机的工作原理,就不难发现,ATM机完全可以被称为“人工智能”而非“机械自动化”。笔者无意否认ATM机是一种主要用于替代银行自然人柜员的设施,但问题的关键是,ATM机替代的是银行自然人柜员的什么功能,是自然人柜员手脚等身体功能还是大脑功能?抑或两功能同时替代?其实这些问题涉及到是将ATM视为“机器”还是“人”的判断上。对于ATM机的性质,学界历来存在不同的看法。有学者将ATM机完全等同于普通“机器”,也有学者认为应将ATM机作为“人”来看待。而笔者在很多文章中均认为,以上看法均有失偏颇,ATM机既非“机器”也非“人”,而是“机器人”。这是因为,ATM机替代的不仅是银行自然人柜员的手脚等身体功能,而且还在很大程度上替代了银行自然人柜员的大脑功能。正是由于ATM机具备识别功能等替代银行自然人柜员的“大脑功能”,同时又可以在电脑编程的控制和支配下代替自然人柜员的手脚等身体功能从事劳动,即具备机器的特征,所以,将ATM机视为“机器人”可以准确、全面地反映其特点和本质。这也正是ATM机与一般纯机械运作机器的主要区别所在。例如当使用者去ATM机取钱时,ATM机需要识别信用卡是否真实有效以及使用者输入的密码是否正确,并以此判断使用者是否就是信用卡的持卡人?从中我们不难发现,具有识别功能无疑是ATM机区别于一般纯机械运作的“机器”之关键所在。更由于识别功能本身是自然人大脑具备的功能,所以,在识别功能这一方面能够替代银行自然人柜员大脑功能的ATM机符合了“人工智能”的内涵,理应被作为智能机器人看待。
     
      笔者在讨论金融犯罪行为的定性时指出,ATM机既不是“机器”也不是“人”而是“机器人”,这并非是文字游戏,相关字词的变换有着特殊的意义。如果行为人利用ATM机具有的“识别”功能中的认识错误获取财物,就应对行为人的行为按冒用型信用卡诈骗罪认定;如果行为人是利用ATM机存在的“机械故障”获取财物(许霆案件),则应该对行为人的行为按盗窃类的犯罪认定。从中我们不难发现,即便是作为犯罪对象的普通智能机器人,也可能成为对具体犯罪行为定性影响的重要因素。
     
      需要指出的是,即便按照批判者的认定标准(是否能够沟通交流以及是否具有自主性),ATM机实际上应被认定为智能机器人。理由在于,ATM机在验证使用者插入的信用卡以及输入的密码时,是在识别使用者提供的信息是否真实有效,当认定使用者提供的信息真实有效时,会自动吐出钱款。ATM机验证使用者提供的信息是否真实有效的前提是接收使用者提供的信息,吐出钱款是对使用者提供信息的行为作出回应,而是否作出吐出钱款的回应是由ATM机识别或判断的结果决定的。接收信息并作出回应是沟通交流(沟通交流未必借助语言),是否吐出钱款由ATM机的识别或判断的结果决定,就充分体现了ATM机的自主性。手机银行、支付宝等的认定与ATM机类似,在此不作赘述。
     
      笔者认为,学者在界定研究对象的概念时应站在客观理性的立场上,不应以个人好恶为标准并忽视客观规律和生产力发展水平,凭主观臆断得出的结论经不住推敲和考验。人工智能法学研究的起点通常是阿尔法狗战胜世界围棋冠军,或者利用人工智能技术实施撞库打码牟利犯罪。批判者将人工智能法学研究的起点描述为大众汽车制造车间的“机器人杀人事件”,以此作为人工智能法学研究的起点,则“农业社会耕田的拖拉机伤人也该划入人工智能法律问题的话题范围了”。我们暂且不提批判者有意或无意错误理解人工智能法学研究起点的事实,仅分析所类比的“农业社会耕田的拖拉机伤人”事件,批判者在这一类比的谬误是显而易见的。众所周知,拖拉机是工业革命时代的产物,最初的牵引动力来自蒸汽机,第二次工业革命中,其牵引动力被改良为内燃机。机械化生产是工业社会的标志,因此,拖拉机是工业社会的产物。以生产力发展水平为标准,人类文明的发展是沿着“原始社会—农业社会—工业社会—信息社会—智能社会”的主线演进。换言之,农民用拖拉机在田间耕作时,人类已步入了工业社会,并不因为拖拉机用于农业,就认为当时仍是农业社会。可见,批判者有关“农业社会的拖拉机”的提法,本身不太妥当。批判者以“淫秽物品”的含义不明确为例,说明无法给“人工智能”下定义。事实上,《刑法》第367条明确界定了“淫秽物品”的概念——“本法所称淫秽物品,是指具体描绘性行为或者露骨宣扬色情的诲淫性的书刊、影片、录像带、录音带、图片或者其他淫秽物品。”批判者为了证明自己所论述内容的准确性,甚至对于法条的明确规定也可以视而不见。由此可见,批判者对概念界定的态度不够严谨,这也从一个侧面体现了对“人工智能”与“机械自动化”概念的混淆或界定的不可靠。进而言之,批判者对学界关于人工智能的内涵所达成的共识听而不闻、视而不见,坚持自己“提炼出人工智能概念的核心要素”,似乎缺乏客观理性的立场因而很难具有说服力。
     
      三、对移花接木型“伪批判”的回应
     
      如上文所述,人工智能技术的本质是人类生产只有自然人才具有的智能技术,智能机器人区别于纯机械运作的机器,其在一定程度上可以替代自然人大脑的功能。在此基础上,智能机器人被分为普通智能机器人(如ATM机)、弱智能机器人(如AlphaGo)和强智能机器人(尚未出现)。普通智能机器人与弱智能机器人的区别在是否具有深度学习能力;弱智能机器人与强智能机器人的区别在是否具有自主意识和意志。在人工智能刑法学研究中,研究者通常是对不同类型的智能机器人(即人工智能技术的不同发展阶段)可能引发的风险以及对刑事责任演变的影响分门别类的研究和探讨。概言之,对普通智能机器人而言,当其作为犯罪工具时,与普通工具无异,但其作为犯罪对象时,因具有一定的“智能”(如本来只有自然人才具有的识别功能)而改变犯罪的性质;对弱智能机器人而言,其深度学习能力的存在会拓展原有犯罪的“广度”和“深度”,会产生新型犯罪;对将来可能会出现的强智能机器人而言,因其可能脱离人类设计和编制的程序控制而产生自主意识和意志,具有独立的辨认能力和控制能力,会自主实施犯罪行为。刑法学界对笔者上述观点的争议主要集中在:其一,普通智能机器人作为犯罪对象时,对行为性质认定的影响。其二,在弱人工智能时代,涉人工智能犯罪中研发者和使用者刑事责任应如何分配?以及对出现的新型犯罪是否应设立罪名予以规制?其三,强智能机器人是否具有刑事责任主体资格?针对这些问题,刑法学界展开了讨论,并产生了大量学术成果。
     
      有学者认为,上述学术成果是基于对“伪问题”进行研究而产生的“学术泡沫”,人工智能法学研究者的上述研究对象是基于夸张、炒作、娱乐为前提而制造、放大的“假问题”。批判者的观点可被归纳为两个方面:其一,人工智能技术带来的刑事风险是法学研究者“依靠无数假想拼凑起来的幻影”;其二,智能机器人是人类的工具,其无法理解自己行为的外部意义或社会价值,因此不可能成为刑事责任主体。在论述第一个方面的观点时,批判者提出,人工智能法学研究者“鼓吹”未来会出现具有自我意志的强智能机器人,智能机器人可能会取代人类,引发的风险足以对人类产生毁灭性的打击。这种以未出现的风险作为前提的“居安思危”“未雨绸缪”的研究,不过是“用别人的噱头吓唬自己”。在论述第二个方面的观点时,批判者提出,智能机器人像石器时代的石头,始终是人类的工具,即使表现出了一定的自主行为能力,与黑猩猩等动物没有任何区别。批判者还提出,人工智能法学研究者所宣扬的智能机器人刑事责任主体资格论完全借由与单位的类比,充分暴露了说理不充分的软肋。
     
      笔者无意对“幻影”“学术泡沫”“噱头”“夸张、炒作、娱乐为前提”“暴露软肋”等不太规范的非学术用语评述,笔者需要指出的是,上述批判者的观点将普通智能机器人、弱智能机器人、强智能机器人(或普通智能机器人时代、弱人工智能时代、强人工智能时代)等概念糅合在一起,将人工智能法学研究者针对不同类型的智能机器人(或人工智能技术的不同发展阶段)所分门别类的研究和探讨予以杂糅,采用了“移花接木”的“技巧”予以“批判”。应该看到,这些建立在没有全面了解“批判”对象观点基础上提出的“批判”,似乎是文不对题、答非所问的。具体而言,批判者将人工智能法学研究者针对强人工智能时代相关问题的探讨“嫁接”到对普通人工智能时代或弱人工智能时代的刑事风险的探讨上,借由论述强人工智能时代的到来是“未知数”,从而全盘否定人工智能法学研究者对前述刑事风险的探讨。同时,批判者将普通智能机器人或者弱智能机器人的特征“嫁接”到对强智能机器人刑事责任能力的探讨中,借由论述普通智能机器人或者弱智能机器人的特征,来否定人工智能法学研究者提出的赋予强智能机器人刑事责任主体资格的探究。笔者认为,“移花接木”的“技巧”可能暂时会令人“信服”,但这种有意或者无意“张冠李戴”的分析方法终因存在严重破绽而无法让人接受。这些并非建立在客观分析和研读现有研究成果基础之上的批判,不可能是真正的批判,我们只能将其归入“伪批判”范畴之中。对于批判者提出的上述“伪批判”,笔者意欲从三个方面予以回应。
     
      第一,人工智能时代的刑事风险并非人工智能法学研究者制造的幻影,是真实存在的。笔者在相关文章中论述过强智能机器人出现的可能性,在此不作赘述。批判者可对人工智能这一全新时代已经出现并将继续的刑事风险视而不见,但将自己设想外的东西都理解为是“幻影”似乎不太妥当;更何况历史不止一次地告诉我们,以往可能是“幻影”而现在成真的情况比比皆是、不胜枚举。现在谈到无人驾驶汽车,恐怕不会有太多人感觉是天方夜潭了,实际上在十年前,大多数人都认为无人驾驶汽车在我们生活中是遥不可及的。事实上,在现时对新时代多一点“幻影”总比“没有想到”好得多。笔者意在说明,即使在当今弱人工智能时代,刑事风险也是实在存在的。例如,在2019年8月底推出的“爆红”社交网络的AI换脸软件引发了严重的隐私争议;在2019年8月初,“3D人头模型还破解了刷脸支付,成功购买火车票”;在前几年,有人利用AI换脸技术制作淫秽视频。弱人工智能时代人工智能技术中常见的分支——人脸识别技术,就引发了如此多的刑事风险,给公民的人身安全和财产安全带来巨大的威胁,对此我们难道可以视而不见吗?在“全国首例利用AI犯罪案”中,犯罪分子利用智能机器人的深度学习能力和快速反应能力来识别登录相关网站时需输入的图片验证码,轻松快速地绕过网络公司为保证用户账户安全而设置的登录安全装置,“给网络诈骗等黑色产业提供犯罪工具”。有犯罪分子在无人机上面安装扩音器、手枪等装置,在几百甚至几千米外操纵无人机对路人进行抢劫;犯罪分子可以事先编制好相应的程序,无人机自行选择抢劫对象、确定抢劫时间。还有犯罪分子利用无人机群阻碍警察解救人质。还如,行为人利用智能机器人超强的反应速度,在证券买卖过程中实施“幌骗”“塞单”等行为,从中牟取暴利。这些都足以证明,并非在当今的弱人工智能时代不存在刑事风险,而是批判者为批判或否定别人的观点才对弱人工智能时代的风险采取熟视无睹的态度。就此而言,人工智能技术带来的刑事风险不是法学研究者“依靠无数假想拼凑起来的幻影”,而认为人工智能技术没有带来刑事风险似乎才是批判者闭目塞听所造成的“幻觉”。对于建立在此基础之的对人工智能法学研究的批判,似乎用“伪批判”来形容更为妥当。
     
      第二,智能机器人“具有工具属性”这一命题的成立与否要分情况讨论。需要指出的是,本文中批判者所谓的工具属性中的“工具”其实是指相对于自然人而言的物品、器具等,即批判者命题中的“工具”是不能成为责任主体的。笔者首先需要指出的是,在刑法上“工具”并不一定排斥成为刑事责任主体的可能性,自然人不仅可以成为犯罪工具(例如,间接正犯),还可能成为刑事责任主体。另外,从刑法上分析,即便是物品、器具等犯罪工具对刑事责任的认定也并非完全没有影响。例如,刑法有关故意伤害罪与故意杀人罪的区别中,我们会将行为人具体使用的凶器性质作为不同犯罪定性的主要依据之一。又如,刑法有关抢劫罪的条文中,明确将“持枪抢劫”规定为情节加重犯,即行为人在使用犯罪工具上只有“持枪”才可能构成情节加重犯,如果使用其他工具抢劫,可能只构成抢劫罪的基本犯。可见,工具不仅可能成为影响犯罪行为定性的因素,还可能成为影响相同犯罪行为中刑事责任轻重认定的因素。回到智能机器人“具有工具属性”这一命题上,笔者认为,这一命题的探讨至少要分为两个层面:其一,普通智能机器人与弱智能机器人仍具有工具属性,但与传统意义上的工具有质的区别;其二,强智能机器人产生了自主意识和意志,其行为可能不再受人类设计和编制的程序控制。显然,强智能机器人可能不完全符合“工具”的特征,不应再被认定为“工具”。理由是:
     
      首先,普通智能机器人、弱智能机器人与传统工具的最本质区别在于,智能机器人可以替代甚至延展自然人的大脑功能,而传统工具只能替代自然人的手脚等身体功能。笔者认为,批判者所言的既然都是“人之工具”便可以一律由自然人主体承担责任的观点是成立的。但是,正是由于上述普通智能机器人、弱智能机器人与传统工具本质区别的存在,自然人主体承担的责任会发生分配上的变化。而批判者对这一有关责任分配上的变化的讨论似乎始终采取回避态度。应当看到,机械性设备到普通智能机器人再到弱智能机器人“进化”的过程中,其所蕴含的“机器”的因素逐渐减少而人所具有“智能”的因素逐渐增多(从无到有、从少到多),这当然会影响到对研发者和使用者行为性质的判断或者影响研发者和使用者之间刑事责任的分配。例如,在传统的交通事故案件中,如因汽车质量而引发的交通事故,汽车的研发者在其设计的汽车存在重大安全隐患的情况下才构成重大责任事故罪;如因违反交通规则而引发的交通事故,汽车的使用者(驾驶员)可能构成交通肇事罪。但是,在自动驾驶汽车的交通事故案件中,尽管因汽车质量而引发的交通事故,仍由汽车的研发者在其设计的汽车存在重大安全隐患的情况下承担重大责任事故罪的刑事责任,而如果出现自动驾驶汽车因违反交通规则而引发的交通事故的情况,谁承担交通肇事罪的刑事责任?就是一个亟待解决的问题。由于自动驾驶汽车没有驾驶员,汽车又不能成为责任主体,我们似乎只能将传统违反交通规则所应承担交通肇事罪的刑事责任进行重新分配或转移至研发者。也即当研发者为自动驾驶汽车设计的程序不符合道路交通管理法规的规定,而导致自动驾驶汽车肇事引发安全事故时,自动驾驶汽车的研发者可能承担原来理应由驾驶员承担的相应刑事责任。由此可见,尽管普通智能机器人与弱智能机器人仍然没有完全摆脱工具属性,但其与石器时代的石头、青铜时代的铜器、蒸汽时代的蒸汽机等已经有了本质的不同。批判者所提出的智能机器人与石器时代的石头毫无差异的论断显然不能成立。
     
      其次,批判者提出的人工智能法学研究者在论述智能机器人刑事责任主体资格时借由与单位的类比的说法是没有道理的。笔者曾在发表的文章中从正面论述过承认强智能机器人具有刑事责任主体资格的原因,并非仅仅借由与单位的类比。笔者一贯主张的观点是,在探讨强智能机器人是否具有刑事责任主体地位时,关注的焦点不应是强智能机器人与自然人和单位在自然属性上的差别,应把目光放在何为自然人和单位作为刑事责任主体的必备要件(刑事责任能力)上,如果强智能机器人具备了刑事责任能力这一必备要件,其就有成为刑事责任主体的可能性。批判者在没有充分掌握人工智能法学研究现状以及被批判学者观点的情况下就展开批判,显然又是一种以偏概全的“伪批判”。
     
      第三,批判者提出的“强智能机器人无法理解自己行为的外部意义或社会价值”的论断无法证明。批判者宣称,“强智能机器人无法理解自己行为的外部意义或社会价值”。批判者论述这一观点时,提出“从人类哲学的角度论证‘何为智能’、‘何为思考’更贴近问题本质”,用塞尔的“中文房间实验”作为论据,得出“‘智能’一词本就是专属于人类的一种能力”,而强智能机器人不具有人类特有的“智能”,就无法理解自己行为的外部意义或社会价值的结论。笔者认为,这一论证过程存在缺陷。
     
      首先,批判者并未如自己所主张的那样,从人类哲学的角度论证“何为智能”“何为思考”,只描述了“中文房间实验”,而“中文房间实验”又仅仅是一种假想。事实上,从哲学的角度而言,“智能”和“思考”可以被概括为自由意志。批判者意图通过描述“中文房间实验”的场景,来说明强智能机器人不具有自由意志,进而否认强智能机器人成为刑事责任主体的可能性。笔者认为,从哲学角度,强智能机器人具有自由意志完全能够得以证明。具体而言,其一,人的自由意志具有拟制特点。“人的自由意志和道德理性本质上属于唯心主义认识论的范畴,是先验的而非社会实践的结果,具有拟制特点。……先验、拟制的自由意志论,在某种程度上可以说是为确立刑法人类中心主义量身定做的。这是因为,在当时的历史条件下,只有人类才具有自由意志和理性。立足自由意志和理性,就可以将动物以及其他实体排除在犯罪主体之外。”当历史背景发生变化时,具有自由意志的主体范围也有可能会发生改变。其二,上述拟制的前提是在人工智能时代来临之前,只有人可以发挥主观能动性并作出实施或者不实施某种行为的抉择。“动物之恶的种种表现都是其自然本能的必要伸展,而人类之恶的种种表现确是其自由意志的选择性扩张。”也即上述拟制是建立在以下假定的基础之上的——除了人类之外,任何其他物种都不存在主观能动性发挥的可能性。其三,上述拟制成立的基础在人工智能时代发生了动摇。“自由意志论之先验与拟制特点,为其拓展与扩张奠定了基础。”换言之,具有自由意志的主体并非一成不变的,随着科技的发展和时代的更迭,具有自由意志的主体范围可能会得以拓展与扩张。笔者曾在相关文章中详细论述过,强智能机器人既然具有与能够产生自由意志的人类大脑相类似的程序系统,我们就没有理由否认强智能机器人可能会产生自由意志。对此笔者不再赘述。同时,既然自由意志具有先验和拟制的特点,则认为人类具有自由意志只不过是通过观察自然人的客观行为得出来的结论。如果强智能机器人可以脱离人类设计和编制的程序控制自主实施行为,则我们没有任何理由否认强智能机器人具有自由意志的判断。强智能机器人在自主意识和意志的支配下实施行为时,并非“自然本能的本能伸展”而是“自由意志的有选择扩张”。
     
      其次,“中文房间实验”这个论据不能支撑批判者所提出的论点。“中文房间实验”中的“我”的原型并非智能机器人,而是自然人。与自然人依靠语言(或能够转化成语言的其他交流方式,如烽火、旗语)同外界进行沟通交流不同,智能机器人与外部世界沟通交流的媒介是程序和算法(至少现在是这样认为的,类脑科技和神经科技的发展可能改变这种认识),智能机器人对外部世界信息的接收过程即是将外部世界的信息转化为自己能够“理解”的编码,而其向外部世界释放信息的过程即是将自己能够“理解”的编码转化成自然人可以理解的信息。批判者在所提供论据中的主体与所要论证对象存在上述差异的情况下,运用“中文房间实验”,只能证明智能机器人“不一定能”理解自己行为的外部意义或社会价值,而不能证明智能机器人“一定不能”理解自己行为的外部意义或社会价值。换言之,运用“中文房间实验”,得出来的结论只能是模棱两可的。但是批判者将这种模棱两可的结论凭借自己的主观推断转化成了确定无疑的结论。
     
      最后,即使假定“中文房间实验”可以证明“‘智能’一词本来就是专属于人类的一种能力”,也不能得出强智能机器人不能理解自己行为的外部意义或社会价值这一结论。《华盛顿邮报》近日报道,78岁的间谍小说家、好莱坞编剧安德鲁?卡普兰同意成为“数字人”,即利用人工智能技术将一个人的音容笑貌长久地保存在网络空间,并具有实时和互动感,未来数百年甚至上千年之后的人依然可以通过语音计算平台与他互动。“数字人”技术使得人类生命的永恒在某种程度上得以实现。批判者是否认为“数字人”能够理解自己行为的外部意义与社会价值?如果批判者的答案是否定的,即认为“数字人”不能理解,则批判者将具有肉体作为能够理解自己行为外部意义和社会价值的重要衡量标准。从生物学的角度而言,人类只是一种灵长类动物,在肉体层面,人类并没有比自然界中的其他生物“高级”多少。照此而言,如果认为具有人类肉体便能够理解自己行为的外部意义和社会价值,则具备肉体的其他动物也应当能够理解,这便与批判者前面所得出的“‘智能’一词本来就是专属于人类的一种能力”的结论相矛盾。如果批判者的答案是肯定的,即认为“数字人”能够理解自己行为的外部意义和社会价值,则人类“智能”的附着物是可以理解自己行为的外部意义和社会价值的。正如前述,人工智能技术是人类将本来只有自然人才具有的智能赋予智能机器人的技术。就此而言,我们完全可以将智能机器人理解为是人类“智能”的附着物,这样智能机器人当然可能理解自己行为的外部意义和社会价值。而这一结论显然与批判者宣称的智能机器人不能理解自己行为的外部意义和社会价值的结论相悖。由此可见,批判者所提出的上述观点因无法得以证明而不具有可靠性。
     
      四、对自相矛盾型“伪批判”的回应
     
      除主张智能机器人的核心要素是“沟通交流能力”和“自主性”这一观点外,也有批判者提出,智能机器人具有“像人一样思考”和“机器”两个核心要素,即智能机器人就如能够像人一样思考的机器。该批判者认为,智能机器人的外观是机器设备,内核是电子程序,即使它比人类更聪明,也永远摆脱不了“机器”这一核心要素。并且,人工智能不是“天然的”智能,而是“人造的”智能,就如同“真牛皮与人造牛皮”的关系一般直白,“两者始终是异质体”,因此,智能机器人就是“为了方便人的生活、为了丰富人的娱乐活动而研发的一件‘机器’或‘玩具’”。笔者认为,批判者的上述论述是完全自相矛盾的,应被列入“伪批判”的范畴。笔者意欲从以下几个方面对上述“伪批判”进行回应。
     
      第一,“像人一样思考”与“机器”是互相矛盾的两个要素,不可能出现在同一个事物中。笔者认为,批判者所提出的智能机器人的两个核心要素,是互相矛盾的。原因在于,从批判者的言论中看出,其总结的智能机器人的两个核心要素具有不同的侧重点,“像人一样思考”侧重智能机器人内在程序描述,“机器”侧重智能机器人的外在形体描述。我们暂且不讨论认为智能机器人的外观是机器设备的说法是否合理(事实上,智能机器人分为有形的智能机器人和无形的智能机器人,将智能机器人的外观描述成机器设备不过是批判者的主观臆想),按照批判者的逻辑来分析,自然人就是“会思考”的“肉身”,即自然人的两个核心要素是“会思考”和“肉身”。正如笔者在前文所述,“肉身”并非人类特有的,而是自然界中的动物都具备的。因此,人区别于其他所有动物的关键在“会思考”,即自然人的外形不是人类智能的表现,“会思考”才是。按照该批判者的说法,智能机器人是“像人一样思考”的“机器”,那么,既然智能机器人具备与人类相同的核心要素,又怎会完全等同于“机器”或“玩具”?可见,批判者对智能机器人核心要素的总结不仅不能证明自己论点的正确性,反而是“以己之矛攻己之盾”,揭示了自己论点当中的自相矛盾之处,相当于足球运动员踢了一脚“进了自家球门的乌龙球”。
     
      第二,“人造牛皮论”与“法人的人工类人格”相抵牾。该批判者承认,“法人的人格其实也是一种人工类人格”,这与其在论述当中提及的人工智能相当于“人造牛皮”从而只能作为人类的“玩具”的说法相冲突。具体而言,其一,如果批判者提出“人造牛皮论”的目的在于说明,“天然的”相对于“人造的”而言具有优势,即“天然智能”一定比“人造智能”有优势,这就犯了常识性的错误。众所周知,“人造的”超越“天然的”可谓比比皆是、不胜枚举,例如,飞机比鸟飞得高,潜艇比鱼游得快。其二,如果批判者提出“人造牛皮论”的目的在于说明,人造的事物只能是人的工具,永远不能成为主体,则与批判者所承认的法人具有人工类人格的说法相悖。法人概念确实是人类创造出来的产物,并非天然存在的。但是法人因拥有法律上的人格,而可以或者已经成为法律上的主体。换言之,非天然的事物也有可能成为法律上的主体,而并非只能是工具。由此,我们不能简单地认为,人造智能的承载物——智能机器人只能是人的工具,并当然地不可能成为法律上的主体。
     
      另外,笔者在此需要说明的是,批判者在突出持智能机器人刑事责任主体资格肯定说的学者所犯的自相矛盾的谬误时提出,承认人工智能的刑事责任主体地位将会面临五大悖论:“技术失控——技术可控”之悖论、“特殊预防无效——特殊预防有效”之悖论、“刑罚设计——非刑罚性”之悖论、“AI主体性——AI工具性”之悖论、“消减风险(追求责任体系严密化)——加剧风险(转移人类责任)”之悖论。笔者认为,这五大悖论均不能成立。正如批判者自己所言,“一贯理性的法律人也会丢掉人类智力本该坚守的常识”,批判者在论证自己观点时也应时刻注意坚守住“人类智力本该坚守的常识”。除对“AI主体性——AI工具性”之悖论的回应,笔者已在上文中作了详细论述,在此不再赘述外,笔者对批判者提及的其它四点悖论具体分析如下:
     
      其一,在“技术失控——技术可控”之悖论中,批判者提出,既然刑罚能够有效限制智能机器人的犯罪能力,为何还会出现智能机器人超出人类设计和编制的程序控制的情形?按照批判者的这一质疑,我们似乎也可以说,既然刑罚具有改造犯罪、预防犯罪的功能,为何从古至今还会出现犯罪分子屡禁不止实施违反刑法规定的犯罪行为呢?由于现时提出如此显而易见谬误的质疑之人恐怕不会太多,因此,对批判者提出我们可能面临这一悖论的质疑,笔者应该没有必要再作更多的回应了。
     
      其二,在“特殊预防无效——特殊预防有效”之悖论中,批判者提出,人类为何不直接在智能机器人的程序中消除犯罪条件,非要等到其犯罪之后再介入?按照批判者的论调,我们似乎可以提出这样的疑问:与其现在对犯罪者进行刑罚惩罚,为何不在幼时就彻底消除他的犯罪思想或犯罪条件,而非要等到其犯罪之后再对其处以刑罚?监狱对犯罪人进行教育改造的目的是使其“洗心革面,重新做人”,为何还会出现累犯?这说明我们对幼儿的教育或监狱对犯罪人的教育改造无效,还是说明我国的刑罚体系没有存在的必要?另外,需要指出的是,前文笔者曾提出强智能机器人之所以可能成为刑事责任主体主要是因为其可能脱离人类设计和编制的程序控制而产生自主意识和意志,并具有独立的辨认能力和控制能力,可能会自主实施犯罪行为。如果这种情况确实会出现或存在,试想人类又怎么可能“直接在强智能机器人的程序中消除犯罪条件”呢?
     
      其三,在“刑罚设计——非刑罚性”之悖论中,批判者提出,删除数据、修改程序、永久销毁等专门为强智能机器人设计的刑罚种类实际上是非刑罚措施。其实这是一个老问题,笔者在许多文章中均已经作了回应,在此不作赘述。应当看到,某一项措施是否应设置为刑罚种类,主要应根据对新类型的犯罪有无设置的针对性、对惩罚与改造新类型犯罪主体的必要性等内容加以决定,最后由刑法加以明确规定,不会因为行政法规或其他法律中已有规定而一律排除在刑罚种类之外。以罚金为例,其既可以是一项行政处罚措施,也可以是刑罚体系当中的附加刑。与之类似,删除数据、修改程序、永久销毁等举措可以是“检修指南”当中所规定的措施(如批判者所言),但当强智能机器人成为刑事责任主体时,刑法则完全可能在条文中规定与此责任相对应的新刑罚种类。此时,这种“检修指南”中所规定的措施性质就可能成为刑罚种类。需要指出的是,笔者提出的刑法应适时将删除数据、修改程序、永久销毁等设置为刑罚种类,设置这些刑罚种类的想法也只是针对现时我们所能预想到会出现的强智能机器人(可能脱离人类设计和编制的程序控制而产生自主意识和意志的强智能机器人)的犯罪行为设计的。如果在未来科学家一旦将类脑科学技术和神经科学技术与人工智能技术结合的话,其产生的强智能机器人可能不仅在智能上会超越自然人,甚至在智能产生根据及物理外观等方面也会有很大的突破和超越。假定这种并非遥不可及的现象真的出现,不仅会让批判者从“智能机器人因具有机器的外观,所以永远只能是机器,怎么可能是人?”的疑惑中解脱出来,同时还会得出这样的结论,笔者建议设置的上述刑罚种类因远远不足以应对犯罪的新类型强智能机器人而恐怕需要大大增加。
     
      其四,在“消减风险(追求责任体系严密化)——加剧风险(转移人类责任)”之悖论中,批判者提出,当智能机器人致人损害而自负责任时,便为智能机器人的研发者或使用者推卸刑事责任提供了绝佳的借口。对此观点的反驳,笔者已在相关文章中作过详细论述。简言之,当普通智能机器人或弱智能机器人致人损害时,承担刑事责任的只能是智能机器人的研发者或使用者,此处不存在推卸刑事责任的可能性。当强智能机器人在自主意识和意志的支配下实施了严重危害社会的行为时,如果研发者或使用者对于强智能机器人的“失控”存在故意或过失,则应承担相应的刑事责任;如果研发者或使用者对于强智能机器人的“失控”既无故意也无过失,则强智能机器人的“失控”对研发者或使用者而言就是意外事件。此处更不存在推卸刑事责任的可能性。
     
      综上所述,批判者所谓“承认人工智能的犯罪主体地位将会面临几大悖论”无法解决的担心并不成立,其实没有一个悖论实际存在,批判者“无法解决”的担心似乎又是多余的。
     
      五、结论
     
      人工智能时代是一个已来的伟大时代。伟大的时代当然会给社会带来已知或者未知的巨大变化,面对这些变化,我们当然不能坚守“以不变应万变”的原则,以莫然视之、无动于衷的态度对待之。伟大的时代需要各种先行理论加以支撑,而先行理论的提出确实也很难做到完美无缺。对一件新生事物,我们尚且有一个认识过程,更何况对一个全新的人工智能时代的理解,其认识过程之长、对传统观念突破之难甚至之痛,是可想而知的。需要指出的是,作为社会科学分支的法学研究并非像自然科学那般精确且结论具有唯一性。在人工智能法学研究的过程中,针对某一问题(特别是针对未来发展中可能存在的问题)学者提出的可能会有一定瑕疵的新观点,我们不应作过多的求全责备,甚至情绪化地加以否定。正是因为不同观点的碰撞和交流、争鸣与探讨,才能促使人工智能的法学研究不断向纵深方向发展。在人工智能法学研究学术争鸣的大背景下,我们应站在人工智能技术和人工智能时代发展的高度,在对他人研究成果进行充分了解并确保不存在误解的前提下,开展对相关问题的研究。

    【作者简介】
    刘宪权,华东政法大学教授。

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码