於兴中的个人空间

博客

必须警惕“人工智能万能论”,科技乌托邦不是人类的未来

  引言
 
  算法已经成为我们这个时代的迷思。算法为我们指引方向;算法为我们筛选研究成果;算法为我们确定该由机器还是人给我们做手术;算法也能为我们吟诗作乐。更为厉害的是,算法还可以自己学习改进,精益求精。算法助人为乐,给人提供服务的前景好像一片光明。
 
  然而,算法到底是什么?它们如何做到上面所说的这一切?算法可以解决任何难题吗?算法有什么负面作用?这些问题计算机和人工智能的专家们到现在也还没有统一的答案。
 
  倒是有人认为算法大体上是可以界定的。但普遍意义上严格的定义却也不太可能,因为存在不同种类的算法,不同侧重点的算法,而算法是在不断扩展变化的。这种变化不仅仅是某一种算法自身的演进,而且会有新种类的算法被不断发掘出来。这就使算法的概念变得很难确定。
 
  比如,除了历久不衰仍在运用的经典的顺序算法(sequential algorithms),现在已有的算法包括平行(parallel)、互动(interactive)、分布式(distributed)、实时(real-time)、混合(hybrid),量子(quantum)算法,等等。新型的算法很有可能还会出现。当然,这并不意味着给算法赋予严格的定义是绝不可能的事。
 
  集所有算法于一身的模范算法是算法研究者的梦想。算法虽然难以界定,但有人说我们已经进入了算法社会,人工智能、互联网、物联网这些只不过都是算法社会的序曲。
 
  —时间,算法社会、算法文化、算法之治、社会算法这些新词成为学界热议的话题。那么,算法社会到底是一种什么样的社会?人在算法社会中占据何种地位?算法之下,人还有没有隐私?人还有没有活路?
 
  我们已经生活在算法社会,而且很多人认为这是一件好事。从经济的角度来看,机器学习的算法可以刺激创新和生产增长。有研究表明,用于机器学习算法的大数据能够为很多行业带来增长点,诸如广告业、医疗卫生、基础设施、物流、交通运输,等等。
 
  就日常生活而言,算法可以帮助我们节省时间和精力,比如网上搜索工具,网上银行以及智慧手机的程序,等等。最近人们在期待的数字个人助手很可能几年后比手机更为抢手,因为数字个人助手可以整合各种适合我们的信息,并且预料我们会有什么样的需要。
 
  然而,算法的广泛使用也给一般人造成威胁。如果大公司可以通过大数据和算法事先了解我们的需求,那么这就对自主选择和个人隐私带来很大不便。我们的信用评估、健康记录等现在都由机器来承担。这对大企业来讲是大好事,可以使企业更加有效率,而且有可能降低价格。
 
  在法律领域里拟真法律助手也越来越常见。
 
  ROSS系统已经进入多家律师事务所。Lex Machina也成为法律人越来越依赖的研究平台。由于算法技术的发展,法律领域里事实上正在发生一场大的变革。法律人所从事的事业实际上需要根据所掌握的信息作出判断。无论根据规则推理还是根据案例推理,都需要大量数据作为判断的基础。大数据的出现为法律人提供了非常好的机会。
 
  目前人们推崇的“定量法律预测”(QLP)很可能会越来越重要。然而,对于法律消费者来说,大数据和算法并不总是福音。虽然某种算法设计之初,动机是中立的,但也有可能产生偏见。可能由于编程者下意识地把自己的偏见编进了程序,也有可能数据本身就反映了相应的社会偏见。
 
  比如,在就业方面,大数据已经广泛用于帮助雇主挑选理想的工作人员,算法根据自己的运作方式将应聘工作者进行筛选,并为雇主提供一份理想人选的名单。已经有很多例子表明,通过算法提供的名单同样会有歧视的现象。在美国的环境下,如果一个人的名字听起来不像英美人常用的名字,则有可能成为算法歧视的对象。
 
  对于同一事物,由于关注的重点不同,观察的视角不同,所看到的结果也就不同。就互联网而论,生意人关注的是网上的商机,自由主义者关注的是网上的权利,政府工作人员则对网上内容的治理更感兴趣。网络已经渗透到我们生活的各个角落,离开网络,似乎已经很难生存下去。互联网起到了重新界定人生意义的作用,而网络空间也发展成了另一个世界。
 
  本文拟就算法社会的利与弊做点非专业性的评论,旨在强调人工智能的限度就是人的限度,算法社会并不是理想的社会。它们只是人的智性单向度发展的最新成果,科技乌托邦并不是人类的未来。
 
  理想的人类社会应该是人的智性、心性和灵性都能得到高度发展的社会。算法社会只能使人的智性过度发展,从而使人丧失人性中更为宝贵和自然的组成部分,如心性和灵性。因此,必须以警惕的态度审视目前正在不断升温的人工智能万能论。
 
  算法社会利弊论
 
  今天,几乎我们从事的所有事情都由算法决定。谷歌决定我们每天首先读什么,亚马逊决定我们买什么书,找房子、找工作或者找朋友,都离不开各种各样的网络服务商提供的平台,有意无意地遵从别人为你安排好的选择,尽管你可能不愿意让一台机器为你做决定。我们在网上的行为和交易都会留下痕迹。无论买书,搜餐馆,还是在网上跟银行打交道都会成为“大数据”,网商将会根据你的喜好和购物习惯给你推荐物品。
 
  算法本来只是由编程员编写的一些电脑程式,但今天的算法已经能够自学,自我完善。它们接受的数据越多,读懂人的行为的概率就越大,在人工智能的路上就更进一步,尽管我们无法判断在这条路上走下去是好是坏。
 
  故此,霍金(Haw King)说:
 
  “成功创造人工智能是人类有史以来最重大的事情;然而,不幸的是,这也可能是最后一次,除非我们学会如何避免危险。”
 
  (“Success in creating AI would be the biggest event in human history.”“Unfortunately,it might also be the last,unless we learn how to avoid the risks.”)
 
  如上所述,在算法社会,大数据、算法以及人工智能的运用与人的命运息息相关。
 
  人们的生活、就业及各种机会都受制于这些因素,而受惠于这些因素的主要是政府和企业。算法社会为政府和企业提供了大量的收集个人信息并且监视控制个人的机会。政府通过各种渠道不仅可以有效地控制个人的网上信息和行为,也可以迫使企业就范,利用企业的基础设施和技术,帮助并参与对个人信息和网络的控制。
 
  因此,在数字时代,个人的言论自由面临的不仅仅是政府的监控,同时也受到企业的监控,而且企业的监控无远弗届。当今的主要网络提供商都是大型的跨国公司,它们的手臂可以伸到世界的每个角落。换句话说,在监控资本主义的视野内,个人作为算法与网络的消费者是无处逃遁的。
 
  政府的手脚力所不能及的地方,企业却更为有效。当然,政府和企业的合作是建立在利益基础上的,而政府和企业之间的利益也并不一致。政府需要借助企业的基础设施和技术力量达到自己的目的,而企业则为了免于干扰或获得更多资源与政府合作。
 
  尽管政府用纳税人的钱支持商家开发人工智能的做法是否正确很值得怀疑,但这种事情往往会以冠冕堂皇的借口证成,比如国家战略、民族大计等。在政府、企业和个人这个三角关系中,个人没有多少发言权,只能是牺牲品。对个人权利(尤其是隐私权和言论自由)的威胁来自多方面的渠道。因此,在算法社会,消费者的权益变得尤其重要。
 
  智能机器系统正在改变我们的生活。它们可以帮助人们安排日常事务,操持家务,从事研究,提供翻译,判断真假,协助断案,甚至进行艺术创作。随着人工智能在生活中的普及和不断提高,人类的生活会变得越来越有效率,越来越丰富。
 
  与此同时,随着人工智能以各种各样的形式走入我们的生活世界,人们开始担忧它可能带来的麻烦。
 
  机器人违反了法律,或者伤害了人身或财产,谁来承担责任?
 
  如何控制机器人产品的质量?
 
  自然人损坏了机器人,应该如何赔偿?
 
  无人驾驶的交通工具出了事故该如何问责?
 
  如何对待不良商家借人工智能谋取暴利?
 
  如何应对人工智能引起的业界的乱象和泡沫?
 
  如何规制人工智能的科学探索,从而避免使其走向反人类的方向?
 
  诸如此类的问题使要不要制定专门的人工智能法成为一个重要的话题。姑且不说像人工智能是否会取代人工,通用人工智能会不会超越人类等这类大科学家、思想家和企业家们所担心的终极问题。
 
  当然,目前人们最担心的还是自己会不会丢掉工作。这种担心不仅体力劳动者有,脑力劳动者也有。人工智能的发展会不会带来大量的失业?货运卡车行业很明显的已经受到了冲击。
 
  当人们热议伊隆?马斯克(Elon Musk)的自动驾驶汽车如何了得之时,可以预见的问题是卡车司机、出租车司机该怎么办?自动化将会使更多的人失去工作机会,包括办公室工作人员。
 
  有多种研究已经表明,未来20年间,大量的流水线工作人员,人文含量不高的工作岗位都会面临被机器人代替的危险。理想地说,自动化在某种意义上说是一种解放生产力或者还人以自由的动力。被解放出来的人也许可以从事更有意义的工作或者研究。一种乐观的态度认为,新技术革命初期会带来失业潮,但最后都会创造更多的机会。但没有人非常肯定地说这次也会如此。
 
  另一个令人担心的问题是不平等。
 
  大数据、人工智能、算法、数据解析、机器学习、区块链,这些概念每天都在轰炸着我们。可是,真正理解它们却需要很好的教育背景。算法社会对人的科技素质的要求非常高,没有相当的教育水准是难以适应的。这就注定了算法社会一定是科技精英社会。少数人会成为主宰,而大多数人只能顺从。
 
  我们可能正在期望一个比现有社会更不平等的社会。这种不平等是从起点到结果的全方位的不平等,这是罗尔斯(Rawls)、桑德尔(Sandel)和森(Sen)合起来也无法对付的。
 
  这种不平等首先是对资源占有的不平等。
 
  在数字时代,数据是最重要的资源。对数据的占有是成功与否的基础所在。目前的状况是,只有为数不多的几家公司有能力占有大量的数据,竞争也只能在很小的圈子里进行。脸书、谷歌、亚马逊、苹果及微软这五家互联网与人工智能开发的巨头在业界早已形成垄断之势。
 
  其次是对机器创造的财富的分配。
 
  由于机器的广泛应用,大量的人工被代替。资本家利用机器创造的财富分配给被取代了的人员的可能性并不大。财富最终自然而然地掌握在少数拥有人工智能的大公司的所有者和支持他们的当权者手中。贫富差距正在而且将会被进一步拉大。所谓“后劳工”社会就是数字技术上有优势的寡头及其技术精英团队和当权者同谋共赢的社会。思之,令人悲伤不已!
 
  机器对于人的行为的影响也是值得担忧的一个问题。
 
  智能手机的发明给人们的生活带来了无与伦比的方便,但也几乎把人变成了瘾君子。很多抵抗力较弱的人已经沦为手机的奴隶,每天机不离手,几乎分分秒秒都在看手机,或收发短信,或玩游戏,或看节目。美国佛罗里达州的一位母亲沉迷于手机游戏,不顾孩子。孩子一哭,便对其施加暴力,致使孩子死亡,做母亲的后悔莫及,而且还要面对法律的制裁。这样的悲剧在美国不止一次地发生过。
 
  今天人们对机器的沉溺比当年人们吸食鸦片可能有过之而无不及,所不同的是今天人们对迷恋机器的危害还没有充分认识。
 
  任何先进技术都是一把“双刃剑”。可以被用来造福人类,也可能被用来毁灭人类。人工智能研究的最新最尖端的成果恐怕都是首先用于军事方面。各国出于保护自己利益的需要,争先恐后地发展人工智能武器装备。无人驾驶飞机成为新一轮军备竞赛的主要装备。
 
  现在,拥有杀人机器人的国家已经不少,而且在不断增加。人工智能武器已经成为军火商贩卖的新式武器。主权国家一面在指责别的国家恶意攻击他们,一面在以防御的借口大肆发展人工智能武器。人工智能武器不仅指杀人的机器人,或者用机器人代替人去当兵,而且更重要的是人工智能对网络系统和其他智能系统的瘫痪性的攻击。网络安全因之是非常重要的安全问题。
 
  然而,更为吊诡的而且也是无法预料的是人工智能自身的发展有可能超出人类的掌握。也许在某一个环节,人创造的人工智能走上了独立自主的道路,完全脱离了人的掌控而自行其是,成为人的敌人或者从事不利于人类的活动。就像传说中的只喜欢制造曲别针的机器人,一切在它的眼中都是制造曲别针的原料,连人也不能幸免。更不用说,如果库茨韦尔(Ray Kurzweil)等人翘首以待的“奇点”成为现实,人与机器的关系将会发生何种翻天覆地的变化!
 
  奇点:
 
  科技乌托邦的天堂,人的地狱?
 
  所谓奇点,我们知道这是广义相对论里面的观点,后来也不断地有人在用,库茨韦尔把它推到了极致。
 
  意思是什么呢?奇点实际上就是虚实相交的点,海天结合的地方,时间和空间结合的地方。既存在也不存在,充其量只是一种理论假设。
 
  库茨韦尔写了一本书就叫《奇点临近》,提出所谓“奇点理论”,宣称2045年将出现“奇点”时刻,人类文明会走到终点,生物人将不复存在,取而代之的是一个叫作“奇点人”的新物种。
 
  换言之,库茨韦尔预测2045年人类将与机器融合,获得永生。在《人神一未来简史》中,赫拉利(Harari)把人完全划约为算法,认为每个人真正的实质性的构造是算法。
 
  如果人真的只是由算法构成的,那人工智能超越人是毫无疑问的,因为人不会比机器算得更快。这是一种非常可怕的理论,幸运的是,相信这种理论的人并不多。
 
  对奇点的痴迷也是对人工智能的迷思。有些人认为超级人工智能的来临已经是铁板钉钉的事。但更多的学者专家则认为,目前还没有迹象表明近期会有超级人工智能的出现。就目前来看,人工智能可以解决的问题还是很有限的。
 
  诚然,未来学家们在想象的空间里可以任意驰骋,勾勒人类未来的蓝图。但技术乌托邦已经从乐观走向了悲观。库茨韦尔和赫拉利陶醉在对技术的膜拜之中,而对人类的命运仅仅给予了漫不经心或者轻描淡写的关注,好像人类的未来并不那么重要,只要他们心中的人即算法或者“奇点”的临近即可成为现实。技术乌托邦的推动者们认为技术可以解决一切问题,实际上是对理性的过分依赖。
 
  技术乌托邦首先是一种思维方式,这种思维方式代表的是进步史观,而这种进步主要是科技的进步。进步史观在人类发展史上发挥过至关重要的作用,但也受到过尖锐的批判。
 
  在十八九世纪,人们觉得世界是进步的,今天比昨天好,明天会更好。然而,无数历史事实证明进步并不是绝对的。从几千年来的历史来看,人性可能没有发生很大变化。赞成技术乌托邦的人想要找出一种科技模式,并用这个模式统御制度设计,使人类社会更加完美,人们的生活过得更好。一旦能够通过计算的方式把这些制度做出来,这就是最理想的社会。可是大家都知道这是非常天真的见解,因为人不仅仅是计算型的/理性的,而且还是随情感和情绪变化的,非理性的。
 
  历史证明,人类社会的发展,一如个人的成长,起关键作用的往往不是理性的设计,而是非理性的激情和偶然性。植根于逻辑推理的技术乌托邦并不是一条出路。
 
  换个角度看问题,我们应该重新思考如何能够重拾信心,重新发现立足点。这个立足点不仅仅是对人工智能的认识,而且是对人的认识,对人类社会的认识,对现存的各种各样制度的认识。再一种可能的情况,就是如何能够使人的心性、智性、灵性全面发展,从而避免单向度的发展。应该充分认识到,如果自然人会被机器人所代替,那恰恰就是因为人的智性被发展到了极端,而煙没了人的心性和灵性。
 
  机器人可有心性与灵性?
 
  机器人会不会有一天彻底占领地球?机器人会不会全方位超过人类?
 
  截至目前我们看到的对这个问题的回答,大体是从理性、科技及利益的角度给出的。算法的特性,诸如输入输出、明确性、有限性和有效性可能已经为算法预设了局限性。也就是说,算法是可以被人控制的。但是机器学习的算法却有可能超出人的掌握而自主发展。一旦算法自主发展,机器人超过人类就不是天方夜谭。
 
  但是,如果从人的秉性出发来看问题,机器人是无法全方位超越人类的。所谓人的秉性是指人摄取精神价值资源的天赋。传统上,它被理解为包括理性和非理性两部分,非理性还可以进一步分为感情和信仰。
 
  合而观之,人的秉性包括了理性、感情和信仰三个层面(或三个维度)。这三个层面笔者称为智性、心性与灵性。人不仅具有智性,还有心性和灵性。一般有经验的人做决定虽然主要靠理性,但心性和灵性的影响也不可忽视,有时可能更为重要。人工智能如要超越人类,它必须具有心性和灵性,只有智性是远远不够的。
 
  人的心性是感情、情绪、感觉的发源地,属于完全不同于智性的领域。截至目前,尚无报道声称已经发现某个机器人为情所累。即便是克隆人,也可能只是一种结构性的存在,即可以作为躯体存在,但却无法复制一个人的历史,生活的内容及其兴趣爱好。机器人就更不可能做到这些了。
 
  智性的存在表现在合理性,可计算性、规则性,功利性和经验上。
 
  合理性就是因果关系、比例、得失规划,等等。合理性的行为是排除非理性因素干扰的行为。规则性是智性的另一体现,一种活动或者设想,只有把它规则化以后,才好把握,才好便于认识和重复。
 
  功利性是智性的另一体现,一件事可为或不可为,有利或无利,需要智性予以判断,智性禁止得不偿失的行为。经验是智性的另一个角度,对某一事物的认识和处理,在无法直接推理的时候,只有借助经验。经验证明是可行的则可行,经验证明是不可行的则避免之,这四者合而为一便是智性。人工智能的概念涵盖了逻辑推理、可计算性、规则性、功利性和经验,无疑是人类智性的体现。
 
  灵性是一个难以捉摸的维度,非常难把握。但是我们每一个人都具有灵性,只是程度的不同而已。很多人出家、信教,很快就能修成正果,但不是所有的人都可以,有些人一辈子都无法修成正果。灵性又可包括恐惧感(或畏惧),崇拜,生命倾向、神秘性、神圣性和普世的爱等方面。
 
  人类的心性、智性和灵性是相辅相成且互相制衡的。正如在现代政治制度的安排方面宗教要受到理性的限制,人工智能的发展也应该受到人的心性和灵性的制约。如其不然,好莱坞的科幻大片里智能人占领世界的预言就可能会成为现实。
 
  现在人工智能还处于弱人工智能阶段,机器人还不能自己思考。强人工智能的出现,根据300多个人工智能科学家的推测,至少也要45年以后。但研究人工智能可否拥有感情的问题,即人工情能(Artificial Emotional Intelligence)的研究,已经成为一个热点。但是,根据目前的研究来看,机器人是否会具有心性和灵性依然是一个可想但不可及的问题。
 
  法律的作用
 
  18世纪意大利思想家维克(Vico)指出,历史上曾经存在过神的时代、英雄的时代和人的时代。与此相适应产生了三种不同的法律。神学指导下的法律、英雄的法律和自然人性法。
 
  今天,我们进入了机器的时代。机器时代召唤与之相适应的法律和与之相匹配的法律认识论和法律方法论。机器时代的法律或可被称为人一物关系法、科学自然法,抑或文理混合法。
 
  不管怎么称呼,这种法律所要调整的主要对象是人和自己制造的工具的关系,包括有生命的或无生命的工具,或类人的工具,而这种关系并不是一种财产关系。
 
  如同前三类法律的发展变化一样,机器时代的法律也是建立在已有法律基础上的,并不是一种完全没有传统支持的新型法律。
 
  然而,传统法律的局限也是显而易见的。法律的主要内容是契约、财产和权利义务。就契约而论,在以太坊区块链平台上广泛应用的智慧契约本身就是运算代码的一种反应。传统契约法对它一筹莫展。就财产而论,拟真财产性质的确定是相当困难的事情。到底是拟真资源还是拟真财产尚存在争议。
 
  更何况,该用何种法律调整拟真资源或财产也是没有定论的问题。契约法、劳动法、知识产权法以及物权法都可能适用。就权利的主体而言,当今时代,动物有权利、山川草木皆有权利,连机器人都可能有权利。这完全颠覆了传统的权利学说。需要一种新的权利学说来解释并证成这些权利的合法性。
 
  更为重要的是,网络技术、人工智能技术等科学技术本身具有自己的规律,人为的法律可能鞭长莫及,无法发挥有效的作用。这个领域中有效的调整工具可能更多的是人们所熟悉的代码(Code),而非法律。简言之,机器时代给现有的法律及其制度提出了难题,需要人们从新的角度认真对待。传统的源自19世纪的法律思想和法典意识是无法应对21世纪的新型的动态法律关系的。
 
  另外,法律如何反映机器时代新的道德和伦理则是更大的课题。人的伦理、职业伦理、生物研究的伦理、机器人的伦理、人工智能的伦理等都与法律密切相关。这些都可能是机器时代立法和司法必须要遵循的指导原则。今天的法律人所面临的学习任务是非常艰巨的。
 
  有些人认为,现有的法律已经足以应对人工智能引起的和可能引起的新的法律关系,或者调控由人工智能引发的法律后果,并不需要新的专门的法律调控。持这种观点的人主要把人工智能看作一种产品,并且认为现有的产品责任法就足以应对人工智能引起的法律问题。
 
  具体而言,如果一个机器人侵犯了别人的利益,或者导致了别人的经济损失,机器人的制造者、所有者或者编程者应该承担法律责任。然而,机器人并不是单纯的一般意义上的产品。现有产品责任法中关于产品的概念,并没有预设针对智能活动产品的内容。
 
  无论如何,如果要规管人工智能和算法的研发,就必须要赋予人工智能一定的法律地位。虽然有些国家的法律已经试图赋予机器人一定的法律主体资格,比如韩国的机器人法案提倡机器人应具有相应权利义务的电子人格,爱沙尼亚的人工智能立法把机器人看作人的代理,介于独立人格和财产之间,但很多研究者都不愿意把人工智能看作具有主体性的存在,而仅仅把它看作一种工具或者产品,不具有主体资格。
 
  制定法律等于建立一种社会制度。制度建立的资源和途径大致有三:
 
  一是把行之有效、持之以恒的实践制度化。比如市场的出现,开始并没有固定的市场的概念,但人们习惯于在一定的时间和一定的地点交易,久而久之就产生了市场和调节市场的规范系统和制度。
 
  二是把精确可行的概念和理论制度化。人类社会有些制度的诞生和发展建基于伟大思想家的理论和学说。这方面的例子不胜枚举。
 
  三是向别人借鉴学习,比如法律移植。有史以来人们对法律、习俗、道德等规范系统的相互借鉴从未停止过。
 
  就实践而言,人工智能研究和运用突飞猛进的历史并不长。实践中尚未积累起足够的经验,也未发展出可以类型化的比较成熟的牵涉人工智能的法律关系。因此,无法进行制度化。也就是说,目前不可能制定出有关人工智能的完善的法律。从理论与学说的角度来看,无论描述性的还是预测性的,目前的理论界尚未就什么是人工智能的问题达成一致的认识,而且也缺乏主要的概念范畴。
 
  因此,把理论或者学说制度化的前景也并不十分乐观。从借鉴移植的角度来看,截至目前世界上也还没有一部被命名为“人工智能法”的法律问世。但是,调整人工智能某些方面或某种形式的法律却早已存在。
 
  比如,有关网络平台管理、机器人以及网上交易等方面的法律,诸如欧洲议会“关于制定机器人民事法律规则的决议”,韩国的“智能机器人法”,美国众参两院的“自动驾驶法案”,等等。
 
  毫无疑问,制定单项的或专门的法规调控人工智能的某一具体方面或形式是既有实践,但这并不排除制定一部综合性的概括性的“人工智能法”的可能性。当人们不能完全掌握所需信息的情况下,可以先制定一部原则性的简短的法律,随着实践的深入再制定详细的实施细则。
 
  法律是在不断发展变化中实现其生命价值的。
 
  比如,工伤的赔偿最初大部分国家都采取严格侵权责任制。当一个工人受伤,雇主有过错就要给予赔偿,雇主无过错就不用赔偿。这种侵权的赔偿制不能够涵盖工伤的各种情况,各国不停改革,终于找出新的解决办法一社会保险制度。通过社会保险制度来弥补侵权补偿的不足,使工伤赔偿更加人性化。后来又发展到不管雇主有无过错,只要有工伤都要赔偿。这就要拿出一笔基金来处理工伤。在特别发达地区,只要是与工人有关,哪怕是在路上出了车祸,也要赔偿。
 
  人工智能法对机器人行为的规管,也会有一个逐渐完善的过程。
 
  如果要制定一部概括性的人工智能法,这部法律至少应该明确立法的目的、指导原则以及鼓励和限制的范围和内容。在精神上至少应该反映出人类对自己的创造物的掌握能力和对科学技术规律的充分尊重。
 
  这部法律同时应该设立一个监管人工智能研发的专门机构,并赋予其相应的权力,诸如质量认证的权力,进一步制定实施细则和计划的权力,起诉违法的权力以及行政处罚的权力,并且针对这些权力大致规定实施的程序和大体要求。这个机构一定要吸收有关专家作为成员。纽约市议会新近通过的《算法问责法案》里就有专项规定,要求成立一个由自动化决策系统专家和相应的公民组织代表组成的工作组,专门监督自动决策算法的公平和透明。
 
  结语
 
  世界正在发生翻天覆地的变化。我们正处在大转变的开端。这次的变化在人类历史上从未有过类似的先例。有些人喜欢用“第X次工业革命”来形容这次转变,但不够传神,因为这次转变要比工业革命意义深远得多。这次变化的后果现在尚难以预料,但很多科学家、学者和商业人士都纷纷表示为人类的未来担忧。而未来学家、技术乌托邦主义者则非常向往这一时代的君临。
 
  人类历史上曾经有过划时代的巨变,诸如宗教改革、文艺复兴、工业革命、启蒙运动,以及法国大革命、美国独立革命、俄国革命、中国的两次革命,以及世界上其他国家的革命、独立、合并等这些不可不称之为伟大转变的事件。
 
  然而,这些历史巨变比起正在发生的和将要发生的巨变,真是小巫见大巫。因为以往的巨变无论如何都是以人为中心发生的变化,人类并没有对自己的未来失去控制,而今天孕育着的变化却指向反人类、非人类,乃至灭绝人类的后果。这就是所谓后人类时代的降临。
 
  这种后人类状况的来临虽然是本世纪初的事,但其种子早就孕育在上世纪的社会制度和文化思潮中了。
 
  一言以蔽之,人对自己的状况始终不甚满意,一直在追求更高品质的生活,试图改变现有的状态,无论经济状态、生活状态、政治状态还是个人状态。也就是在这种不断追求完美和完善的过程中,人类迎来了后人类时代。
 
  近现代以来不断改进的宽容与反思的文化环境,给了人们不断认识、解放自己的机会,使个人的追求摆脱了传统的束缚,自由放任,无拘无束地从事自己的研究。从宗教宽容到政治宽容再到文化宽容,现代社会鼓励人们追求快乐幸福,自我实现。
 
  这使人们追求完美的事业从形象到职业,从生活方式到科学研究成为正当而有意义的工作。
 
  使自己变得更美更健康的人类增强工程方兴未艾,化妆保养整容,采用激光除痣或美肤,机器强身已经成为普遍现象。这预示着如果有一天,体内植入芯片或者其他异物能够使人变得更聪明、更强健或更美丽,人们是不会拒绝的。如此一来,人就把自己从自然人变为后人类了。
 
  与此相联系,人对自己本身的认识也有了很大发展,因此才有了各种性倾向的展露和模糊。另外,由于所谓启蒙、现代化、科学的发展而导致了现代单向度社会环境的存在,而单向度的环境则孕育了单向度的人。
 
  一言以蔽之,这些人基本上是理性—科学—经济—法律人。在这样的框架里面,人的理性越来越发达,而心性和灵性则受到了毁灭性的打击。如果不做有意识的努力以遏制人的智性的无限制发展,算法社会将进一步打击并有可能毁灭人的心性和灵性,那也就意味着人的末日的来临。

阅读(319 评论(0
我要评论
欢迎您

最新评论

北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
隐私政策
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码