论人工智能时代的刑事责任主体:误区、立场与类型
2019/5/7 10:33:49  点击率[91]  评论[0]
【法宝引证码】
    【学科类别】刑法学
    【出处】《中国应用法学》2019年第2期
    【写作时间】2019年
    【中文摘要】当前刑法学界对于人工智能刑事责任主体问题的研究走入了一个误区,即立足于刑事古典学派的立场进行研究。刑事古典学派是以限制国家权力,保障人权为目标的。但是,我们并不希望人工智能成为与人类具有同等地位的“人”,因而以保障人工智能“人权”为目标的研究是错误的。我们研究人工智能的刑事责任主体地位,目的在于保护人类免受人工智能的侵害,即为了防卫社会。鉴于此,我们应当借鉴刑事近代学派所主张的社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“技术责任论”,将人工智能作为独立的刑事责任主体,对具有实施了危害社会行为的人工智能施以技术危险消除措施。在人工智能时代,除了会有人工智能这一新的刑事责任主体出现之外,人类犯罪以及人类自身也都会以新的形象出现。
    【中文关键字】人工智能犯罪;刑事责任主体;刑事近代学派;社会防卫论
    【全文】

      自2016年3月AlphaGo以4:1战胜围棋世界冠军、职业九段棋手李世石之后,人工智能再次成了全世界共同关注的热门话题。2017年7月8日,国务院发布《关于印发新一代人工智能发展规划的通知》,人工智能的发展在我国被上升到了国家战略的层面。由此,人工智能也成为我国法学界的热门问题。其实,人工智能产品早已经融入到了我们的日常生活之中。在新闻的媒体报道中,关于人工智能产品造成损害结果的新闻已不稀奇。随着人工智能产品的普及,其对法益造成威胁或者实害结果几乎是不可避免的。因此,从刑法学角度对人工智能时代的风险进行未雨绸缪式研究毫无疑问是非常必要的。不过,就目前刑法学界的研究情况来看,学者们关于人工智能时代刑事责任主体问题的研究似乎走入了一个误区,以至于耗费了大量的学术精力与资源却至今为止也没有形成较为统一的认识。鉴于此,本文首先将通过对刑法学界关于人工智能时代刑事责任主体的研究情况做一些梳理,指出当前研究所存在的误区;然后,将指出人工智能时代刑事责任主体问题研究所应立足的基本立场,进而在其基础之上对人工智能时代刑事责任的主体类型做进一步的分析。[1]
     
      一、人工智能时代刑事责任主体研究的误区
     
      (一)人工智能时代刑事责任主体研究之观点概述
     
      关于人工智能是否能够成为刑事责任主体,目前刑法学界主要存在肯定说与否定说。肯定说认为,人工智能完全可以独立成为刑事责任主体,只是在刑罚的适用方面应当做一些调整。如我国主张肯定说的代表性学者刘宪权教授认为,随着科技的发展,人工智能最终将成为男人、女人之外有意识、能思维的“第三类人”,和自然人一样,完全可能具有自主的意识和意志,具有辨认能力和控制能力。科学研究的结果和趋势表明,智能机器人完全可能在人类设计和编制的程序之外产生自主意识和意志。智能机器人在设计和编制程序范围外实施的行为是在其自主意志下实施的,属于刑法意义上的“行为”,智能机器人完全可以成为刑事责任的主体,并独立承担刑事责任。[2]不过,鉴于智能机器人与人类存在一定区别,需要重新建构适用于智能机器人犯罪的刑罚体系。死刑、自由刑、财产刑、资格刑,均不能对其予以适用,而应为其设置删除数据、修改程序、永久销毁等特殊的刑罚措施。[3]
     
      在主张肯定说的域外学者中,Gabriel Hallevy的主张是非常有代表性的。他指出,要追究一个人的刑事责任,必须同时具备两方面的因素:一是外部的或者事实因素,即犯罪行为(actus reus);二是内部的或者精神因素,即犯罪意图(mens rea)。任何人只要满足这两个方面的条件,就足够让其承担刑事责任,除此之外无需再具备其他条件。人工智能要符合犯罪成立的外部要件毫无问题,关键是能否符合内部要件。内部要件包括认识、意图、疏忽等内容,绝大部分的人工智能具备智能实体所需要具备的五个特征:沟通、内部认知、外部认知、目标导向的行为、创造力。因此,人工智能符合内部要件也是没有问题的,完全可以让其独立承担刑事责任。就承担刑事责任的具体方式而言,大部分的刑种,如死刑、自由刑、财产刑、社区服务、缓刑对于人工智能都是可以通过调整之后予以适用的。[4]
     
      否定说认为,承担刑事责任的关键在于行为主体能够意识到自身行为的社会属性并在自我意志控制下实施行为。人工智能的运行机理与人的意志自由进行形式匹配过于机械,其不具有理解并遵从法规范的能力,而且对人工智能的行为属性无从判断是技术故障还是基于其自主思维的认识和意志能力而实施。因此,人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,也就不具有人的目的理性所支配的可答责基础,欠缺作为刑事责任主体的本质要素。就刑罚目的来看,对人工智能施加刑罚无法实现刑罚的惩治与安抚功能、预防功能、矫正功能,而且对人工智能施加刑罚还会面临定罪量刑以及犯罪形态认定上的诸多困境。[5]也有学者认为,人工智能不具备与人类等同评价的自由意思,尽管人工智能具备“控制和辨认”能力,也无法被人类评价为具有自由意思。对人工智能施加刑罚不具有可行性,罚金、自由刑、死刑都不能对其适用。因此,人工智能不能独立承担刑事责任。[6]
     
      (二)人工智能时代刑事责任主体研究之立场错误:刑事古典学派
     
      就目前刑法学界的讨论来看,肯定论与否定论所讨论的内容主要集中于两个问题之上:一是从犯罪的角度予以讨论,人工智能的行为能否被认定为犯罪行为;二是从刑罚的角度予以分析,对人工智能能否适用刑罚。
     
      上述分析其实都是将人工智能与人类进行类比所得出来的结论。例如,肯定论者认为,随着科技的进一步发展,人工智能最终将会产生自我意识,具有自由意志,最终将成为男人、女人之外有意识、能思维的“第三类人”。[7]人工智能具有认识能力,能够区分善与恶,也具有意志能力,能够在特定意图的支配之下实施自己的行为。[8]否定论者也指出,人工智能无法认知自身行为的社会属性,也不具有规范评价意义上的行为目的性与独立控制行为的意志自由;[9]“要承认AI的‘行为’满足刑法上的行为的要素,就必须在AI自身当中找到和人类意思完全相当的意思”,“将AI作和人类伦理的自我控制同样的评价,还为时过早。”[10]由这些表述可知,不论是肯定论者还是否定论者,总是自觉或者不自觉地将人工智能当作或者希望将其当作人来对待。肯定论者与否定论者讨论的都是人工智能是否会具有意志自由,刑罚对其是否能够适用。自主意识、意思、意志自由是上述所有讨论中最重要的关键词。由此说明,肯定论与否定论有一个相同的预设前提就是,要成为刑事责任主体就必须具有意志自由。
     
      就通常的刑法学研究而言,讨论某人能否成为刑事责任主体,从犯罪与刑罚的角度予以分析当然是没有问题的。但需要注意的是,人工智能并不是“人”,并且大部分人类都不希望人工智能成为与其处于同等地位、甚至超越人类的“人”。[11]在明确了这一点之后,再来看上述学者的讨论,我们会发现他们其实已经走入了一个误区,即不自觉地对人工智能进行了类人化分析。在对人类是否应当承担刑事责任进行分析时,考察该犯罪人是否具有意志自由,是否能够区分善恶,以及对其施加刑罚能否实现惩治、安抚、预防、矫正功能当然是非常必要的。但如此分析,目的是使刑事责任的施加具有正当性。就其本质而言,这些分析所采取的都是一种刑事古典学派,或者偏向于刑事古典学派的立场。众所周知,刑事古典学派所肩负的历史任务在于反对封建制度,要求自由权利。“启蒙主义的刑法理论与立足于报应主义的刑法理论合在一起,成为刑法学中的古典学派”,[12]“启蒙思想的出发点是:追求传统和威权之下的个人解放,提倡理性至上的个人主义、合理主义。”[13]在刑事古典学派看来,刑法的主要任务是防止国家权力对公民的肆意侵害,刑法是保障犯罪人权利的大宪章。[14]刑事古典学派主张意志自由论,他们认为:“一、凡是人在达到一定年龄时除精神上有异状者(疯癫、白痴、喑哑者)与精神未充分发达者外,任何人都有为善避恶的自由意思(意思自由论或者非决定论);二、犯罪是恶,而有自由意思的人,尽管能够避之而竟敢实施之,所以犯罪也是出于自由意思。”[15]他们还主张罪刑法定主义、刑罚人道主义、客观主义。其实,他们之所以主张对未达到一定年龄以及精神上有异状者不施加刑罚,并非从自然性质上“不能”对其施加,而是基于他们的限制国家权力与刑罚人道主义的基本立场,认为“不应”对这类弱势群体施加。
     
      如前所言,人工智能并不是“人”,并且大部分人类都不希望人工智能成为与其处于同等地位、甚至超越人类的“人”。其实,作为刑法学者,由于受专业能力的限制,我们对于人工智能今后是否会产生意识,是否会形成自由意志,是完全没有发言权的。并且,即使有朝一日随着科技的发展,人工智能真的产生了意识,形成了自由意志,那时也不应仅仅由我们人类来讨论应当如何保障它们的权利。因此,我们讨论人工智能是否能够成为刑事责任主体,目的其实不应当是保障人工智能的“人权”,而应当是如何保障人类的人权,是如何防止人工智能侵害人类的利益。以刑事古典学派的立场为出发点对人工智能的刑事责任主体地位展开讨论,显然违背了我们讨论这一问题的初衷,基于这一立场而展开的研究显然是走入了一个与人类利益相背离的误区。
     
      二、人工智能时代刑事责任主体研究的立场
     
      (一)刑事近代学派之历史发展与经验
     
      19世纪中后期,资本主义制度在世界范围内得以确立,自然科学取得了巨大的进展。由于科学技术的发展,工厂越来越集中化、规模化。垄断企业使得工人集中于工厂,而工厂则集中于工业化城镇地区;同时,大量殖民地使得海外廉价农产品大规模进口,导致了农业危机形成,并进一步导致大量的农村人口涌入城市;城市化进程不断加快,史无前例的社会状况巨变由此出现;资产阶级与工人阶级的贫富差距越来越大,失业、贫困等社会问题日趋严重;犯罪,尤其是财产类犯罪急剧上升,累犯、常习犯显著增多,少年犯罪也呈激增趋势。[16]如前所述,刑事古典学派的主要任务在于限制国家权力,保障公民权利,他们认为刑法是保障犯罪人权利的大宪章。重视对犯罪人权利的保障,所产生的直接影响就是会导致国家在犯罪预防与治理方面的权力受到一定的限制。由此,面对19世纪中后期新的社会情势,以刑事古典学派理论为基础制定的刑法难以有效应对,刑事古典学派也难以从理论上提出更为有效的应对之策。[17]正如菲利所言:“在意大利,当古典派犯罪学理论发展到顶峰时,另一方面这个国家却存在着过去从未见过的数量极大的犯罪行为的不光彩状况,这确实是一种令人惊异的对比。因此,犯罪学阻止不住上下波动的犯罪浪潮。正因为如此,实证派犯罪学便与其他学科一样,自然而然地产生了。”[18]
     
      实证派犯罪学即近代学派,具体包括刑事人类学派和刑事社会学派,以龙勃罗梭、加罗法洛、菲利、李斯特等人为代表。除刑事古典学派难以有效应对日益增长的犯罪率这一重要原因之外,近代学派的产生还受到了自然科学发展、达尔文进化论的影响,当时社会科学也弥漫着所谓“科学”的精神,将自然科学中的方法应用到社会科学领域成为时尚。[19]近代学派即主张采用自然科学的实证研究方法对犯罪的原因进行分析,并在科学知识的指导之下追求犯罪预防的目的。他们重视对犯罪的原因进行分析,否定刑事古典学派所主张的意志自由论,进而反对古典学派的道义责任论,认为犯罪人之所以要承担刑事责任,不是由于道义上对他应加以谴责,而是为了防卫社会的需要;他们也反对古典学派的客观主义,认为犯罪人的性格是科刑最重要的标准;反对报应刑主义,认为刑罚不是对犯罪的报应,而是要追求一定的目的。[20]在具体预防犯罪的方法上,菲利认为,为了实现社会防卫的目的,必须用刑罚的替代措施作为实现社会防卫机能的主要手段;[21]李斯特认为:“在与犯罪做斗争中,刑罚既非唯一的,也非最安全的措施。对刑法的效能必须批判性地进行评估。出于这一原因,除刑罚制度外,还需要建立一套保安处分制度。”[22]保安处分“是指这样一些国家处分,其目的要么是将具体之个人适应社会(教育性或矫正性处分),要么是使不能适应社会者从社会中被剔除(狭义的防卫性或保安性处分)”。[23]
     
      相对于刑事古典学派而言,刑事近代学派的进步性是非常明显的。近代学派将实证的、归纳的方法引入了犯罪研究领域,引起了犯罪研究领域中的一场方法论的革命,使犯罪学向科学方向大大迈进了一步。[24]他们使对犯罪的研究从刑事古典学派的抽象研究转向了现实的、具体的研究;他们关于犯罪原因的研究虽然也曾出现过一些不太科学的认识,但更多的是拓展了人们对犯罪原因的科学认识;他们针对犯罪而提出的各种对策,虽然有些过于理想化,但相对于刑事古典学派大而化之的笼统对待显然会更为有效。[25]但是,正因为近代学派过度地关注对犯罪原因及犯罪预防的研究,他们的主张片面强调了社会利益,却忽视了对个人权利的保护。例如,李斯特从犯罪人的社会危险性以至社会适应性出发,修正和改变了刑事古典学派所极力坚持的罪刑法定原则,提倡刑罚个别化,主张扩大适用类推解释、扩大解释、缓刑、假释、罚金的合理化、累进处遇、强制劳动、保安处分及其他各种所谓的“刑外刑”,并从扩大法定刑的范围起,更进一步主张采用不定期刑。[26]正因近代学派的理论存在这一重大缺陷,他们的理论在两次世界大战期间被别有用心的统治者歪曲利用,作为对外扩张、民族压迫甚至种族屠杀的理论依据,由此也引发了二战之后刑法学界掀起了对近代学派观点的反思与对刑事古典学派观点的重新重视。[27]
     
      (二)人工智能时代刑事责任主体研究之立场选择:科技社会防卫论
     
      刑事近代学派的产生、发展、异化、反思与纠偏的历史表明:第一,一种刑法理论的产生以及运用与其特定的历史背景是密不可分的。这一点给我们的启示是,随着人类社会发展至人工智能时代,刑法学研究应社会的需求而发展出新的刑法理论可谓势在必行。第二,刑法学派观点的提出都是以目的为导向的。刑事古典学派之所以主张罪刑法定主义、行为主义、客观主义、意志自由论、道义责任论,其实都是为了实现限制国家权力,保障公民权利的目的;而刑事近代学派之所以否定意志自由,提倡社会责任论、主观主义、目的刑论,其实也都是为了实现预防犯罪、保卫社会的目的。由此可知,我们研究人工智能时代的刑事责任主体问题,首先必须明确的就是,我们的研究是为了实现何种目的?如果是为了保障人工智能的“人权”,以刑事古典学派为基本立场当然是合理的。但是,如果是为了保卫人类社会,那么刑事近代学派的观点则显然会更有借鉴意义。
     
      前文已述,对于人工智能时代刑事责任主体问题的研究,目的应当是如何保障人类的人权,是如何防止人工智能侵害人类的利益。因此,笔者认为,人工智能时代刑事责任主体研究的立场应当借鉴刑事近代学派的社会防卫论,采用专门针对人工智能等科技风险的“科技社会防卫论”。具体而言,即在应对人工智能等科技产品危害社会的风险时,只要有客观危害产生或者有危险存在,对实施了社会危害行为或者有危险性的人工智能就应当适用具有保安处分性质的技术危险消除措施。[28]就此而言,以“科技社会防卫论”为基础所产生的刑事责任是一种客观的结果责任,[29]这种刑事责任追究的形式则可称为“技术责任论”。
     
      以“科技社会防卫论”立场为基础,对人工智能等科技产品适用技术危险消除措施将更有利于防止人工智能危害社会。
     
      首先,对人工智能施加刑罚并不能实现对人工智能危害社会风险的有效预防。众所周知,对人类而言,刑罚在本质上是一种痛苦或者不利。“几个世纪以来很多不同原因使惩罚被认为是正当的。比如特别或一般威慑;罪犯应当受到处罚,从而阻止他们继续犯罪,同时也阻止其他人犯下这种罪行。其他原因包括报应论、罪有应得论和罪犯再教育论:罪犯应受惩罚,要么是作为报复的一种形式,即以眼还眼,要么是作为再教育犯罪人的一种方式。”[30]但是,与人类最大的区别是,人工智能作为一种无机体是不存在痛苦或者不利这种感知的。对实施了社会危害行为的人工智能施加刑罚,以对其进行纯粹的报复没有意义,让其基于害怕刑罚所给予的痛苦或不利而放弃再重复恶性的目的难以实现,惩罚人工智能以威慑其他人类或者人工智能也没有意义。[31]
     
      其次,让人工智能独立承担刑事责任反而可能导致人工智能犯罪增加。由于人的欲望无穷,但能力,特别是理性能力有限,因而即使他们组成了社会,其行为的道德性也往往难以充分地体现,甚至因为对人生之道的错误理解而做出违背道德的行为,他使人类社会行为中出现了“恶”。犯罪即属于严重的恶。[32]可以说,迄今为止的所有犯罪都是源于人类的恶。就此而言,人工智能作为对人类智能的模仿,其即使基于“自主意识”实施犯罪,其罪恶的最终根源也仍然是人类。因此,要预防人工智能实施危害社会的行为,从根源上来说,受刑法规制的主体还应当是人类。让人工智能独立承担刑事责任,会导致罪恶的根源从刑事责任之中脱离,隔离了人类对人工智能“犯罪”所应承担的责任。由此产生的结果是,对人工智能施加刑罚不仅可能没有达到预防和减少人工智能犯罪的效果,而且可能导致人类为了逃避刑罚的惩罚,而将人类犯罪向人工智能“犯罪”转移,人类犯罪逐渐减少,但人工智能犯罪却大量增加。
     
      人工智能由约翰·麦卡锡和马文·明斯基在1956年的达特茅斯夏季会议上正式提出。但是,直到现在为止,关于人工智能其实并没有一个清晰的定义,因为它的内涵和实现方法总是在不停地发生变化。因此,即使是专门从事AI开发的研究者也是众说纷纭,没有明确答案。较为简单的定义是:人工智能(Artificial Intelligence, AI),即由机器或软件表现出来的智能。[33]如果把人工智能的界定再放宽泛一些,即“做出智能举动的软件”。[34]人工智能是一个广泛的研究领域,它一般涵盖可以使机器具备推理、学习和行为智能的多种技术。其中一些技术的运行要基于系统建造时编写的知识和规则集;有一些技术则使用“试探法”,即通过合理推测从大量可能的选项中选出最合理的选项;还有一些技术先做出核心假设,然后考虑新的信息,从而一边工作一边“学习”。[35]亦即是说,不管人工智能最终会智能到何种程度,其在本质上均属于人造物、属于受程序控制的机器或者软件。
     
      鉴于此,针对防止人工智能可能产生的对社会的危害,有效的处理方式并非对其进行惩罚,而是一方面要通过技术措施,如安全软件,对人工智能可能产生的风险进行防范(一般预防);另一方面则对客观上有危害或者危险的人工智能通过技术措施消除其再次产生危害的可能性,并对其他类型人工智能产生危害的可能性进行技术防范(特殊预防)。这些技术危险消除措施由于不会给人工智能带来痛苦,并不会具有惩罚性,因而就其本质而言,不能将其称为刑罚。这些措施的施加是以客观危害或者危险为前提的,只要事实上存在危害社会的结果或者危险,就应当对其以技术措施消除危险,因而是一种保安处分措施。
     
      如今,一般认为,保安处分是针对特定人的犯罪行为,由于其具有将来犯罪的危险,因此作为刑罚的补充或者替代,由法院宣判的、伴随有剥夺或者限制自由内容的隔离、治疗或者改造。保安处分以存在特定人的犯罪行为为前提,以行为人具有将来可能犯罪的危险为根据,是在无法以刑罚加以应对的场合,作为刑罚的补充或者替代而适用的。[36]因此,保安处分的施加也是承担刑事责任的一种形式。亦即是说,对人工智能施加具有保安处分性质的技术危险消除措施也是刑事责任的一种承担形式。正因如此,人工智能也是刑事责任主体。
     
      或许有人会质疑,为何一定要对人工智能施以刑事责任,而不是通过其他方式对人工智能危害社会的风险进行防范?笔者认为,刑法的“二次法”地位决定了人工智能刑事责任是必不可少的。在防范人工智能危害社会之风险时,其他措施以及其他法律法规仍然是必要的,刑事责任只是在其他措施无法应对之时方才使用。就当前的情况来看,可能在很长一段时期之内,人工智能的研发与生产都是以经济利益为导向的企业所开展的。由此可能产生的结果就是,为了经济利益,这些企业不顾人类利益,即使明知某类人工智能产品存在危害社会的风险,也仍然将其向社会推广。因此,应对人工智能风险必须以刑事责任为后盾,只有如此才能使其他风险防范措施更为有效地发挥作用,也才能真正实现对人工智能风险的有效防控。
     
      另需说明的是,由于人类研发和生产人工智能是以人类利益为导向的,因此,所有的人工智能产品都将是与人类利益密切相关的。因而,对人工智能施以技术危险消除措施必将对与之相关的人类利益产生消极影响。为了防止对人类利益产生不合理的影响,在追究人工智能刑事责任时也应坚持法治原则,即技术危险消除措施的施加必须以充分的证据确认人工智能危害社会风险确实存在为前提,技术危险消除措施的使用则应以不对人类利益产生不合理、不必要的影响为限度。
     
      三、人工智能时代刑事责任主体的基本类型
     
      前文的分析表明,人工智能可以独立承担刑事责任,只是这种刑事责任产生的基础以及具体的承担方式与人类会存在一定的区别,即这种刑事责任是以“科技社会防卫论”为基础的“技术责任论”。也就是说,人工智能将是人工智能时代刑事责任的主体的一种重要类型。但需要注意的是,即便是在人工智能时代,人类犯罪也依然是主要的犯罪表现形式。只是由于受到人工智能技术发展的影响,这些人类犯罪可能会产生一些新的变化。
     
      具体而言,一方面,在人工智能时代,与在传统社会中的表现不同,刑法中的传统犯罪将以新的形式出现。
     
      人工智能不仅仅掌握在好人手中,这一技术也完全可能被坏人利用于犯罪。而且,犯罪和黑客行业对新技术利用甚至比其他合法行业更快。[37]应当说,这一判断已经由网络犯罪的发展历史充分证明。作为人类在科学技术方面的重大成就,互联网给人类的生产、生活带来了极大的便利,也深刻地改变了我们的生产、生活方式。与此同时,犯罪的行为方式及其社会危害性也都因为互联网的出现,而在“质”与“量”上都出现了重大的改变。[38]人工智能之所以能够“智能”,其实很大程度上是因其建立在互联网基础之上。“有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能,可以通过它的感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)来沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于‘神经网络’技术的深度学习)来处理数据,并在此基础上做出判断和‘决策’。”[39]因此,可以肯定的是,人工智能时代的犯罪将是网络犯罪的升级,人工智能类犯罪可能造成的社会危害将比网络犯罪对社会的危害更大,对人工智能类犯罪的预防也将更为困难。[40]但在这种情形之中,人工智能只是作为犯罪工具而出现,就此而言,这类犯罪与传统犯罪,以及与网络犯罪并无本质区别。因此,虽然人工智能在犯罪过程中发挥了重要作用,但犯罪主体依然还是人类。
     
      另一方面,随着人工智能技术的广泛使用,人类犯罪人还将以新的形象出现,由此将导致人类刑事责任与人工智能刑事责任同时出现。
     
      “赛博格”一词源自控制论组织(Cybernetic Organism),曼弗雷德·克莱尼斯和内森·克莱恩于1960年创造了这个术语,他们用这个词来讨论外层空间自我控制的人机系统。[41]通俗而言,即有机与无机相结合的生化人(Cyborg)。人类使用医疗技术的历史表明,赛博格的出现几乎是不可避免的。因为,在治疗与进化之间其实是没有明确界限的,医学一开始几乎总是用来拯救那些落在常态下限以下的人,但同样的工具和知识也能用来使人类超越常态的上限。当研发出假肢让截肢的患者能够重新走路的时候,同样的科技就能用来为健康的人进行升级;如果能够发现防止老年人记忆力衰退的方法,同样的方法也能用来为年轻人增强记忆力;现代整形外科原本是用来治疗脸部创伤,最后却被用于给健康人士整形美容。[42]所以,随着人工智能技术的发展,人类本身亦将逐渐成为改造对象。
     
      赛博格离我们并不遥远。如2002年,英国科学家凯文·渥维克有点吓人地预演了谷歌眼镜这样的植入物,把100个电极以手术植入左臂的神经纤维。通过这些电极,他把自己的神经连上了互联网,以此控制了各种电子设备,包括一个机械手臂、一个音响和一个放大器。[43]在目前所有进行的研究当中,最具革命性的就是要建构一个直接的大脑——计算机双向接口,让计算机能够读取人脑的电子信号,并且同时输回人脑能够了解的电子信号。北卡罗拉纳州杜克大学的科学家在几只恒河猴的大脑里面植入电极,再让电极收集脑中的信号,传送到外部设备。接着猴子被训练单纯用意识控制外部的生化手脚。有一只叫极光的母猴,不仅学会了如何用意识控制外部的生化手臂,还能同时移动自己的两只手臂。于是,这只母猴就同时拥有了三条手臂,而且其生化手臂还能位于另一个房间甚至另一个城市。所以,这只猴子可以坐在北卡罗拉纳州的实验室里,一手抓抓背,一手抓抓头,还能有一只手在纽约偷香蕉。另一只叫伊多雅的母猴,则是在2008年坐在北卡罗来纳州实验室的椅子上,用意识控制一双在日本京都的生化腿。[44]最近,天津大学医学工程与转化医学研究院院长、天津神经工程国际联合研究中心主任明东教授指出,随着脑科学、人机交互技术的发展,人与机器的依赖关系会愈加强烈,界限也愈加模糊。现在的人工智能技术有其先天的劣势,但也有人脑智能不具备的优点,如何将人工智能与人脑智能的优势充分利用以实现互补、融合,发展出人机混合智能的新形态,也将是人工智能未来重要的突破口。或许,将来人工智能就像人身体上的一个器官一样成为人发挥更大潜能的辅助工具。[45]因此,可以预见,随着科技的进一步发展,有机体与无机体相结合的新型人类,即赛博格的出现必将成为现实。今后人工智能设备与人类有机体相结合的赛博格将成为人类的新型存在形式。
     
      当人类与人工智能相结合,成为新型的赛博格后,其实施犯罪以及承担刑事责任的形式亦将有所改变。如在2018年由澳大利亚导演雷·沃纳尔(Leigh Whannell)所拍摄科幻电影《升级》(Upgrade)中,格雷因车祸导致下半身瘫痪,在体内植入了人工智能芯片后从而重新站了起来,后来格雷利用芯片中人工智能给予的超强能力自主实施了杀人行为,甚至在芯片中人工智能的控制之下实施了多次杀人行为。因此,赛博格的犯罪问题是极为复杂的,不过,就人类的刑事责任而言,以责任原则为基础,要追究刑事责任关键还是在于判断行为是基于人类意志实施,还是在人工智能的支配下实施。换言之,赛博格刑事责任的追究实质仍然是主观罪过来源的判断问题。具体而言,可以分为以下几种情况:
     
      第一,赛博格人类在完全自主意识之下实施了犯罪行为。由于在这种情况中,支配犯罪行为的主观罪过完全来自赛博格人类,因而与传统人类犯罪并无区别,应当按照传统的刑事责任承担方式追究刑事责任。
     
      第二,人工智能受他人非法控制,或者人工智能本身就是被设计和制造为实施犯罪的工具,从而致使赛博格人类实施了犯罪行为。在这种情况下,由于促使犯罪行为产生的主观罪过事实上源自其他人,赛博格人类在这种犯罪过程中只是处于犯罪工具的地位,根据间接正犯理论,其无需承担刑事责任,该责任应由人工智能的非法控制者或者设计和制造者承担。
     
      第三,因人类原因所产生的人工智能故障导致赛博格人类实施了犯罪行为。在这种情况中,要具体分析人工智能的故障是如何产生的。如果其故障是由人工智能的设计和制造者过失所造成,应当追究设计和制造者的过失责任;如果故障是由使用者,即赛博格人类过失所造成,并由此导致实施了犯罪行为,则应当追究赛博格人类的过失责任,并应当对赛博格中的人工智能使用技术危险消除措施以防止故障再次出现。在这种情况中,人类刑事责任与人工智能刑事责任同时存在。
     
      第四,人工智能在所处的环境刺激下学习,从外部环境中获取知识和技能,进而支配赛博格人类实施了犯罪行为。[46]在这种情况中,由于赛博格人类本身对于犯罪行为的实施并不具有主观罪过,无需承担刑事责任。而在实施犯罪行为过程中起主导作用的人工智能将作为刑事责任主体独自承担刑事责任,即应当对其施加技术危险消除措施以防止其再次实施社会危害的行为。
     
      结 语
     
      近些年来的科技发展情况其实早就已经超出了许多普通人的想象以及理解能力范围。所以说,可以合理预见,随着科技的进一步发展,人工智能将像手机一样深深地融入到我们的生产、生活之中。并且,可以肯定的是,人工智能会与其他科学技术产品相类似,在给人类的生产、生活带来便利的同时也会给我们带来难以承受的风险。“在风险社会中,未知的、意图之外的后果成了历史和社会的主宰力量。”[47]科学技术的发展是风险社会中的一种重要风险来源,我们当然不能等到这些意图之外的后果成为主宰力量之后再对其做出反应。虽然法律本身具有一定的保守性,但法学研究则应当具有一定的前瞻性,对我们将来可能面临的风险进行未雨绸缪既是必要的,也是合理的。在人工智能时代,刑法的保护机能、规制机能,以及人权保障机能都需要予以强化。[48]并且,需要特别注意的是,至少就与人工智能相关的领域而言,我们所做的所有研究都只能是为了人类利益,而非为了人工智能的利益而服务。如果偏离了这一初衷,所有的研究可能都会变得毫无意义。

    【作者简介】
    黄云波,天津大学法学院讲师、中国智慧法治研究院研究人员。

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码