我国互联网非法有害信息的法律治理及其完善
2020/3/3 18:22:16  点击率[18]  评论[0]
【法宝引证码】
    【学科类别】网络法
    【出处】《东南学术》2020年第1期
    【写作时间】2020年
    【中文摘要】我国在网络非法有害信息的治理上已经初步建立起了完整的法律体系,但是这一法律体系仍存在许多有待完善之处。为此,应该进一步巩固和提升国家网信办的地位,明确非法有害信息治理规则,试行信息内容分级治理制度,并进一步理顺网络服务提供者的法律责任,落实其在信息内容上的安全管理义务。
    【中文关键字】网络安全法;非法有害信息;网络服务提供者;安全管理义务
    【全文】

      引言

      我国对网络非法有害信息厉行规制由来已久。早在1994年国务院颁布的《计算机信息系统安全保护条例》中就已做出“任何组织或者个人,不得利用计算机信息系统从事危害国家利益、集体利益和公民合法利益的活动”的规定,而在1996年国务院颁发的《计算机信息网络国际联网管理暂行规定》中又将其进一步明确为:“从事国际联网业务的单位和个人,应当遵守国家有关法律、行政法规,……不得利用国际联网从事危害国家安全、泄露国家秘密等违法犯罪活动,不得制作、查阅、复制和传播妨碍社会治安的信息和淫秽色情等信息。”到了1997年公安部颁布的《计算机信息网络国际联网安全保护管理办法》,网络非法有害信息已经被细化为了9类(即“九不准”)。2016年《网络安全法》的颁行是我国网络立法史的一个巅峰,在网络非法有害信息法律规制领域,它同样意味着长期以来存在的立法层级低、内容不一致、缺乏统筹主体等问题开始得到解决。然而,《网络安全法》的施行并未终结网络非法有害信息的存在。为实现对网络信息内容的有效治理,我们有必要对我国的网络信息内容规制体系进行细致的梳理,找出症结之所在并针对性的予以改进。

      一、我国互联网信息内容法律治理体系

      “网络并非法外之地”。网络属于法律规制的对象已经成为了世界各国的共识。[1]在网络非法有害信息规制领域,我国已经形成了以《网络安全法》及全国人大会常委会两个决定为顶点,以《互联网信息服务管理办法》等行政法规、规章为主体,以《侵权责任法》为补充,以《刑法》(尤其是修正案七与修正案九)为托底的完整法律体系。

      (一)初步形成了稳定的界定模式

      总体说来,我国法律法规对网络非法有害信息的界定主要有二:2000年国务院颁布的《互联网信息服务管理办法》和2016年颁布的《网络安全法》。至于《全国人大常委会关于维护互联网安全的决定》则主要着眼在与《刑法》的对接上,对于更为常见的行政规制并无涉及。

      其中,《互联网信息服务管理办法》对行政规制领域中标准不一的“九不准”进行了初步明确,此后所制定的规制网络的法规、规章等对网络非法有害信息的规定大多与之大同小异。《网络安全法》则在第12条对网络非法有害信息的界定进行了进一步明确,规定使用网络“应当遵守宪法法律,遵守公共秩序,尊重社会公德,不得危害网络安全,不得利用网络从事危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,传播暴力、淫秽色情信息,编造、传播虚假信息扰乱经济秩序和社会秩序,以及侵害他人名誉、隐私、知识产权和其他合法权益等活动。”并在第46、47条规定了其他法律、法规所禁止的内容同样构成非法有害信息。

      (二)明确了网络服务提供者的信息内容治理义务

      《全国人大常委会关于维护互联网安全的决定》明确规定“从事互联网业务的单位要依法开展活动,发现互联网上出现违法犯罪行为和有害信息时,要采取措施,停止传输有害信息,并及时向有关机关报告。”而《互联网信息服务管理办法》则进一步规定,“互联网信息服务提供者发现其网站传输的信息明显属于本办法第十五条(“九不准”)所列内容之一的,应当立即停止传输,保存有关记录,并向国家有关机关报告。”这一规定在此后我国制定的网络法律法规,包括《网络安全法》中都基本上得到了沿用。

      此外,依据《互联网信息服务管理办法》,“互联网信息服务提供者和互联网接入服务提供者的记录备份应当保存60日,并在国家有关机关依法查询时,予以提供。”依据《网络安全法》,网络运营者[2]还应当建立网络信息安全投诉、举报制度,公布投诉、举报方式等信息,及时受理并处理有关网络信息安全的投诉和举报;对网信部门和有关部门依法实施的监督检查予以配合;为公安机关、国家安全机关依法维护国家安全和侦查犯罪的活动提供技术支持和协助;留存与监测、记录网络运行状态、网络安全事件有关网络日志不少于6个月(第49、28、21条)。

      (三)规定了周密的法律责任

      对于法律责任的规定比较有代表性的是《计算机信息网络国际联网安全保护管理办法》。该办法规定制作、复制、查阅、传播网络非法有害信息的,由公安机关给予警告,有违法所得的,没收违法所得,可以并处罚款;情节严重的,并可以给予6个月以内停止联网、停机整顿的处罚,必要时可以建议原发证、审批机构吊销经营许可证或者取消联网资格;构成违反治安管理行为的,依照治安管理处罚法的规定处罚;构成犯罪的,依法追究刑事责任。同时,该办法对未对用户发布的信息进行审核的网络服务提供者也规定了相应的法律责任。《互联网信息服务管理办法》沿用了上述规定,并对经营性互联网信息服务提供者和非经营性互联网信息服务提供者的法律责任做出了区分。

      为了统一网络执法的依据、提升网络执法权威,《全国人大常委会关于维护互联网安全的决定》对各法规、规章的规定予以了总结和肯定,为确定违法者所应承担法律责任树立了基本原则。《网络安全法》在贯彻上述原则的基础上,除重申发布或传播网络非法有害信息依照法律、行政法规的规定予以处罚外,还对违反同法第46、47条的行为规定了相应的法律责任。

      在民事侵权领域,《侵权责任法》第36条规定网络服务提供者在发现(明知)其平台上存在非法有害信息(侵权信息)或接到被侵权人的通知时负有删除该信息的义务,否则即应与侵权人承担连带侵权责任。而在刑法领域,我国《刑法》对于以网络为对象及通过网络实现的犯罪做出了系统的规定,其中与网络非法有害信息规制联系最为紧密的除了煽动、教唆类犯罪外,就是修正案九所规定的拒不履行信息网络安全管理义务罪。

      二、我国网络信息内容法律治理中存在的问题

      尽管我国在网络空间内容治理上取得了初步成效,[3]但是由于网络信息内容的治理较为复杂,因此在实践中仍存在着许多问题有待解决。

      (一)“1+X”治理体系尚不稳定

      根据《国务院关于授权国家互联网信息办公室负责互联网信息内容管理工作的通知》, 国家互联网信息办公室(以下简称“国家网信办”)负责全国互联网信息内容管理工作,并负责监督管理执法。《网络安全法》更从法律层面上正式承认了国家网信办在网络安全(包括信息内容安全)及相关监督管理领域中的统筹协调地位。这也就是通常所说的“1+X”的网络治理体系。

      然而,我国的网络内容治理体系却并未真正形成理想的“1+X”体系。根据学者的统计和分析,在网络内容治理上各国家机关之间形成的“中心-边缘型网络”中有3个中心,而不是1个。这3个中心分别是国家网信办、公安部和工信部。(见图1)


      图1 2013-2018 年间互联网信息服务治理机构合作网络

      (来源:魏娜、范梓腾、孟庆国:《中国互联网信息服务治理机构网络关系演化与变迁——基于政策文献的量化考察》,《公共管理学报》2019年第2期)

      这一统计结果与我们在实践中观察到的情形也是一致的。国家网信办虽然有国家最高领导人领衔的中共中央网络安全和信息化委员会作为其权威性支撑,但要终结网络治理上政出多门、重复监管的情形也面临着相当大的困难。以网络直播为例。尽管国家网信办出台了《网络直播服务管理规定》,但几乎与之同时,文化部也出台了《网络表演经营活动管理办法》。而此前广电总局就已制定了《互联网等信息网络传播视听节目管理办法》。再加上文化部2011年制定的《互联网文化管理暂行规定》,网络直播从业者及网络运营者就可能受到至少3个部门、4个规章(规范性文件)的规制。[4]总体说来,根据“谁主管谁负责”的原则,除国家网信办外,至少有以下部门有权对网络非法有害信息进行规制:工业和信息化部、文化部、公安部、国家安全部、广电总局、新闻出版总署、工商总局、知识产权局等。在各自的主管领域内,上述各部门出于部门利益的考虑往往坚持自己的治理权限。要想真正建立起“1+X”的治理体系,任重而道远。

      (二)具体治理规则仍有欠明确和妥当

      基于对《网络安全法》与《互联网信息服务管理办法》的分析,我国在非法有害信息具体治理规则上存在的问题主要有三。

      第一,模糊了“违法”与“违反道德”的界限。《网络安全法》与《互联网信息服务管理办法》的主要差异之一就是将违反社会公德者纳入到了“非法有害信息”中。[5]虽然尊重社会公德的确是值得提倡的,但是将违反社会公德的信息纳入非法有害信息却是不妥。信息内容的治理同时是对言论自由的法律限制,而言论自由要求的是较一般的权利与自由更为严格的法律保护。道德虽然与法同为调整人类社会的规则,但却是一种较法更为宽泛、更变动不居的价值评价,二者不应混淆。如果将公序良俗[6]和社会公德设为言论自由的法律边界,那么对言论自由的法律规制将在实际上失去限制,公民的言论自由也将无以为继。

      第二,立法用语有欠精确,限制过宽。[7]准确性是对法律的首要要求。然而,“九不准”的用语却大都较为抽象和原则,还需要进一步予以具体化。如“传播……暴力”的规定。对于“暴力信息”就可能存在多重理解。是只要存在打斗情节即属暴力信息,还是打斗情节需要严重到普通人难以忍受的程度才属暴力信息?对于新闻报道、历史著作、文学创作等是否应做除外规定?[8]这些都是需要进一步明确的。此外,还有的表述限制过宽,如“违反宪法法律的规定”。言论自由本为宪法权利,限制言论自由的法律也须能通过合宪性审查。如果将所有违反法律的信息都认定为被禁止信息,那么言论自由就将在实质上失去抵御国家立法权的宪法屏障。

      第三,违反了法律保留原则。尽管《立法法》第八条并未明确列举言论自由,但是从宪法学原理及该条的兜底条款出发,对言论自由的限制也应遵循法律保留原则。在禁止性信息的规定上,法律虽然可以一揽子追认行政法规的既往规定,却不能对将来的行政法规作出预先承认。因为这属于事实上的授权立法,而属于法律保留原则的立法事项不得授权或委托其他机关进行立法。尽管《网络安全法》第47条的立法目的可能是担心挂一漏万,但它所导致的结果却很可能是“九不准”被无限扩大。

      (三)网络运营者的法律责任设置欠妥

      以《网络安全法》为代表,我国法律、法规、规章等均规定网络运营者对于用户发布的信息应履行管理义务,即:发现网络非法有害信息的,应当立即停止传输,采取消除等处置措施,防止信息扩散,保存有关记录,并向有关主管部门报告。很显然,“发现”网络非法有害信息是网络运营者履行上述义务的基础。

      然而,网络运营者之“发现”包括三种情形:(1)行政主管部门通知;(2)通过投诉、举报渠道(包括被侵权人通知)获知;(3)通过人工审查等方式主动发现。其中,除第一种情形外,其他的“发现”都需要网络运营者对该信息是否属于网络非法有害信息作出判断。但在实际执法中,以国家网信办为首的行政主管部门是以网络平台上是否存在非法有害信息为标准来认定网络运营者是否应该承担法律责任的。由此,网络服务提供者不仅应对用户言论进行全面审查,[9]而且在审查过程中还必须承担与执法机关的专业人士同样的注意义务。考虑到互联网信息量庞大、更新速度迅捷,[10]这种责任设置无疑是过重了。

      此外,我国立法对于网络运营者就自己的管理行为何时应享受责任豁免也语焉不详。这一方面导致了事实上网络服务提供者管理信息内容的决定一经做出就是终局的,用户权益难以得到救济;另一方面对网络服务提供者也造成了一种不安定的状态——从理论上来说,网络服务提供者即使是按照主管部门的要求采取行动也仍然可能需要为之承担法律责任。

      三、完善我国网络信息内容法律治理的建议

      对于网络内容的法律治理必须多管齐下,同时从主管部门、网络服务提供者和用户等多角度出发予以完善才能达到更好的治理效果。[11]为此,笔者建议多方并举以完善我国的信息内容治理体系。

      (一)提高和巩固国家网信办的法律地位

      要真正建立起稳定的“1+X”体系就必须妥善处理好各部门监管权限的协调问题、强化国家网信部门的权威、提升网信部门的执法能力。[12]应该说,《网络安全法》对国家网信办的赋权已经走出了最为重要的一步。在此基础上,要进一步强化“1+X”体系还可以从以下方面着手。

      首先,应该以法律进一步明确国家网信办的统筹领导职能。尽管以《网络安全法》为代表的法律已经对国家网信办进行了授权,但“谁主管谁负责”仍是其基本思路之一,多头管理的问题由此难以得到根治。应以法律明确各行业主管部门在网络治理上仅仅起到对国家网信办的协助作用,具体包括:积极配合国家网信办建立起网络安全领域全覆盖的信息共享平台;完成国家网信办交办的事项;协助国家网信办调查取证;在国家网信办无执法权的事项上按照国家网信办的决定进行执法等。

      其次,应该进一步提升国家网信办在法律上的地位、丰富其执法手段、建立从地方到中央的完备体系,并大力提升地方网信部门的执法能力。尽管国家网信部门在政治上具有较高的威信,但是从法律的角度来看,它仅仅只是国务院的办事机构,在国家机关体系中所处的地位远低于国务院部委,所能够行使的权力也是极为有限的。例如,国家网信办只能制定法律效力等级最低的规范性文件。此外,地方网信部门的执法能力也有待提升。事实上,国家网信办制定的决策在地方层面上主要还是要依赖电信主管部门(各地通信管理局)以及网上综合执法大队的配合。如果能够将国家网信办提升至与国务院部委平级,丰富和提升地方网信部门的执法能力,那么网信部门的统筹协调作用将会得到切实的保障,“1+X”体系也将有望实现。

      (二)完善信息内容治理规则

      首先,应坚持“违法”与“违反道德”的区别。必须明确,信息内容的规制是一个法律问题,而非道德问题。“非法有害信息”中的“有害”仅仅是“非法”的同义语,是对非法信息所具有的社会危害性的描述,而非在“非法”之外的叠加描述。由于信息内容的治理必然对公民的言论自由产生限制效果,因此对于“非法有害信息”应该坚持“违法”与“违反道德”的基本区别,从严、从窄进行理解,而不能无限制的将所有有害信息都纳入其中。

      其次,应对“九不准”予以进一步明确。法秩序必须具有统一性,[13]非法有害信息的界定也是如此。首先,应以我国《宪法》第51条为界定“非法有害信息”的指南和原则。在此基础上,笔者建议由国家网信办出台《网络非法有害信息管理指南》,对每一类网络非法有害信息分别作出详细、准确、无歧义的规定。同时,对于《刑法》、《行政处罚法》等有明确规定的非法有害信息,如危害国家安全的信息、煽动颠覆国家政权、散布谣言等,应从其规定;对于网络有害私信息,则应将其理解为所有侵犯他人合法权益的信息。[14]

      最后,应坚持法律保留原则。从法治的角度出发,笔者提出以下建议:(1)《网络安全法》第47条中“其他法律、行政法规”修改为“其他法律”。(2)明确规定法规、规章、规范性文件只能在《网络安全法》等法律对非法有害信息所做界定的范围内作出进一步的细化,而不能突破法律设定的外延。法规、规章、规范性文件中凡与《网络安全法》等法律不一致者,丧失法律效力,不得予以适用。《网络安全法》吸收了我国自1994年以来网络治理的所有经验,在非法有害信息的界定上已经是立法者在现阶段能够给出的最优解。对此,我们应该具有充分的自信。

      (三)建立信息内容分级管理制度

      未成年人保护是网络立法的主要目的之一。然而从技术层面来看,要实现保护青少年利益这一正当的立法目的,除了全面禁止所有不利于青少年成长的信息内容外,还存在着另一种对基本权利限制更小的规制手段,那就是依照信息内容适合的用户年龄层次对信息内容进行分级管理。

      尽管早就有学者提出了分级管理的建议,[15]但从现实层面来看,分级管理的确存在着很大的操作难度。长期以来,网络内容服务提供者很难准确判断用户的年龄层次,这也就使得内容分级无从谈起。但随着电子身份认证信息系统与生物识别技术的发展,网络内容分级制度已经具备了技术保障。在技术条件能够保证两种规制手段取得相同规制效果的情况下,按照比例原则的要求,当然应该采用对公民权利限制更小的规制手段。

      具体来说可以采取如下操作方案。(1)由国家网信办制定分级指南。(2)内容服务提供平台均须接入统一的电子身份认证平台。(3)网络运营者对照分级指南在所要发布的信息内容上打上级别标签,凡未打上级别标签者一律认定为仅适合于成年人浏览。(4)对于被评定为仅适合于成年人浏览级别的,应该参照金融类平台的认证程序要求用户访问时进行双重身份认证,其中之一应为动态面部识别,以确保实际使用用户与登录用户身份的一致性。考虑到内容分级管理制度与现行内容管理制度从技术、立法到服务协议等方面都有许多地方需要衔接,笔者建议在网络游戏平台和网络直播平台先行先试内容分级管理制度,如果运行效果良好,再推广至其他内容服务提供平台。

      (四)理顺网络服务提供者的法律责任

      首先,应该停止“一刀切”的做法,区分三种“发现”的情形来确定网络服务提供者的法律责任。具体说来,在主管部门通知的情形下,由于网络运营者不需要进行判定,因此以非法有害信息之有无作为网络运营者是否应该承担法律责任的判定标准就是恰当的。但在其余两种情形下却并非如此。其中,在第二种情形下,无论网络服务提供者是基于第三人的投诉举报,还是基于被侵权人的通知而“发现”非法有害信息,它都需要对该信息是否属于非法有害信息做出判断。[16]此时即应采用“理性人”标准:如果网络运营者在接到投诉、举报或侵权通知后,对标的信息经判断认为不属于非法有害信息而未采取处置措施、且这一判断符合理性人判断的,即无需承担法律责任。而在第三种情形下,由于网络信息总量的庞大以及更新的迅捷,从客观上来看无论是技术过滤还是人工审查都不可能完全做到精准识别、绝无遗漏,[17]此时则应借鉴善良管理人的注意义务来认定网络运营者是否应该承担行政违法责任。

      此外,虽然刑事责任和侵权责任的立法设计基本上是适当的,但是法院在刑事责任的认定上还是应注意尽量谨慎。正如学者所言,如果“发生问题就通过刑法解决,最终国家与社会将会疏而忘记如何寻找有效的公共治理对策。”[18]例如,在胡某案[19]中上海市浦东新区人民法院认定非法提供国际联网代理服务构成拒不履行信息网络安全管理义务罪就不太妥当。

      其次,应对网络服务提供者的责任豁免做出明确规定。具体建议如下。

      第一,当网络运营者根据主管部门的通知处置非法有害信息时,因网络运营者不得拒绝主管部门的要求而负有执行的法律义务,所以网络运营者不应就其管理行为承担法律责任,而应由主管部门对网络运营者的上述管理行为承担法律责任。同时,网络运营者也应就主管部门做出了有效的删除通知承担举证责任。如果网络运营者无法证明主管部门作出过删除的通知,则不应适用责任豁免。对此,应由法律做出明确规定。

      第二,在网络运营者接到第三人投诉、举报、被侵权人的删除通知或者通过人工审查等方式主动发现非法有害信息予以处置,以及用户发表的信息因关键词过滤等技术手段遭到屏蔽等系统自动处置措施时,由于在这些情形下网络运营者都需要经过自己的主观判断做出该信息是否属于非法有害信息的决定,[20]同时网络运营者也并非纯粹的“私主体”,[21]因此网络运营者不得享受责任豁免。如果网络运营者删除、屏蔽的信息经法院认定确实不属于言论自由保护的范围,那么网络运营者就无需承担法律责任;但是如果法院认定网络运营者删除、屏蔽的信息并不属于非法有害信息,则网络运营者需要为自己的管理行为承担法律责任。同理,对于行业自律公约和企业服务协定对信息内容较法律更为严苛的限制[22]而引发的法律争议,网络运营者也不应享受责任豁免。

    【作者简介】
    陈道英,法学博士,东南大学法学院副教授。
    【注释】
    注释:
    [1]黄河:《论德国电信监听的法律规制——基于基本权利的分析》,《比较法研究》2017年第3期;刘轩:《日本网络内容的治理模式及其现实困境》,李卓主编:《南开日本研究》2015年刊,天津人民出版社2015年版,第241—251页;汪炜:《论新加坡网络空间治理及对中国的启示》,《太平洋学报》2018年第2期。
    [2]本文中的“网络运营者”与“网络服务提供者”基本同义。
    [3]王春晖:《互联网内容建设与治理初见成效》,《中国电信业》2018年第10期。
    [4]实际上,他们还可能受到公安部和国家安全部的规制。
    [5]此前的立法中仅有《互联网上网服务营业场所管理条例》禁止“危害社会公德或者民族优秀文化传统的”信息,而《互联网信息服务管理办法》也仅仅是规定不得“违反宪法所确定的基本原则”。
    [6]尽管民法中也有“公序良俗”的规定,但是在对这一条款进行适用时也应该遵守谦抑性的要求。刘练军:《公序良俗的地方性与谦抑性及其司法适用》,《求索》2019年第3期。
    [7]许多学者都注意到了这个问题,例如尹建国:《我国网络有害信息的范围判定》,《政治与法律》2015年第1期;秦涛:《法治视野下的网络环境治理》,《黑龙江省政法干部管理学院学报》2016年第3期。
    [8]设想一下《荷马史诗》。
    [9]值得注意的是,以《侵权责任法》第36条为代表的私法仅仅要求网络服务提供者承担过错责任。对于该条中“知道”的分析,参见张新宝、任鸿雁:《<侵权责任法>第36条解读》,《中国人民大学学报》2010年第4期;贺剑:《侵权责任法视野下的网络侵权制度》,《互联网法律通讯》2010年3月;王胜明:《中华人民共和国侵权责任法解读》,中国法制出版社2010 年版,第185—186页。
    [10]据统计,我国2018 年仅移动互联网接入流量就已达 711.1 亿 GB。中国互联网络信息中心:《中国互联网络发展状况统计报告》(2019年2月)。
    [11]谢天长、何炜炜、陈晗婧:《网络语言暴力治理的法律对策》,《云南警官学院学报》2015年第4期。
    [12]张新宝、林钟千:《互联网有害信息的依法综合治理》,《现代法学》2015年第2期。
    [13]刘艳红:《法定犯与罪刑法定原则的坚守》,《中国刑事法杂志》2018年第6期。
    [14]“网络有害私信息”的概念参见尹建国,前引文。需要指出的是,此时属于权利冲突,应结合案件事实来进行处理,而不应一概将信息内容认定为非法有害信息。同时,在私权的保护上也应以被侵权人主动主张权利救济为主要方式。
    [15]李建华:《信息内容安全分级监管的体系架构及实施探讨》,《信息网络安全》2001年第2期;张志铭、李若兰:《内容分级制度视角下的网络色情淫秽治理》,《浙江社会科学》2013年第6期;杨攀:《我国互联网内容分级制度研究》,《法律科学》2014年第2期;谢天长:《论“淫秽”认定中的法律困境及其突围》,《福建警察学院学报》2015年第6期;尹建国:《网络信息内容分级机制研究》,《中国行政管理》2016年第10期。
    [16]需要特别指出的是,即使是在“通知-删除”规则下,网络服务提供者仍需对通知中所指侵权情形进行判断,而非接到合格的通知后即应一律删除。对于《侵权责任法》第36条所规定的“通知-删除”规则存在的缺陷及其与《信息网络传播权保护条例》第14-17条所规定的“通知-删除”规则之间存在的区别可参见秦洋、盛星宇:《论“通知-删除”规则的重构——从版权到其他领域的思考》,《网络法律评论》2016年第1期;何琼、吕璐:《“通知—删除”规则在专利领域的适用困境——兼论<侵权责任法>第36条的弥补与完善》,《电子知识产权》2016年第5期。另外,也有学者从宪法学角度论及这一问题,参见郑海平:《网络诽谤案件中“通知—移除”规则的合宪性调控》,《法学评论》2018年第2期。
    [17]陈道英:《ICP对用户言论的法律责任》,《交大法学》2015年第1期。
    [18]刘艳红,前引文。
    [19](2018)沪0115刑初2974号。
    [20]即使是通过技术手段做出的自动处置措施也是由网络运营者制定的处置规则(如过滤或屏蔽的关键词)决定的,而处置规则的设置就包含有网络运营者的主观判断。当然,如果网络运营者能够证明处置规则是由主管部门决定的,那么相应的法律责任就应由主管部门承担。
    [21]类似观点参见李海平:《论基本权利对社会公权力主体的直接效力》,《政治与法律》2018年第10期。此外,行政法上对这一问题也有讨论,例如孟星宇:《公用事业特许经营视角下的国家赔偿责任及其嬗变》,《法学论坛》2018年第2期。
    [22]例如,腾讯在微信服务协议的第8.1.2条中就将非法有害信息从“九不准”扩大到了“十六不准”。

    本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
    转载请注明出自北大法律信息网
0
北大法律信息网
www.chinalawinfo.com
法律动态
网站简介
合作意向
网站地图
资源导航
版权声明
北大法宝
www.pkulaw.cn
法宝动态
法宝优势
经典客户
免费试用
产品服务
专业定制
购买指南
邮件订阅
法律会刊
北大英华
www.pkulaw.com
英华简介
主要业务
产品列表
英华网站
联系我们
用户反馈
返回顶部
二维码