深度和力度:当前网络内容治理新跨越

华东政法大学第七届东方传播法研讨会、

西北政法大学第七届网络空间治理与传媒法治建设论坛发言

自上届东方传播法论坛以来,国家进一步加强依法治理网络内容,形成了一个集中立法的态势。

网络内容法治建设按照依法治网的基本点,保障互联网健康有序发展,以安全保发展、以发展促安全,稳步推进。

互联网深入社会生活方方面面,2022年至今国家制定或修订的法律40多部,约有20部涉网,其中《反电讯网络诈骗法》以及修订的《反垄断法》、《反间谍法》等对于网络法治、网络安全都有十分重要意义。新订专门的部门规章、规范性文件等一年多来也有二十多件,其中如《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《关于依法惩治网络暴力违法犯罪的指导意见》等,都是网络内容治理的专门规范。

当下网络内容法治建设是在网络生态持续向好,意识形态领域形势发生全局性、根本性转变的背景下推进的。正如若干权威研究所指出的那样,在迅猛发展传播科技推动下,传播方式、媒体格局、舆论生态发生了深刻变化。媒体发展的驱动力,从以内容为主转变为以内容和技术双轮驱动,技术和内容越发紧密地结合在一起。技术决定了媒体内容的呈现形態、抵达用户的速度和广度,改变了媒体与用户交互的方式。内容更多依托网络技术、数字和数据技术、人工智能技术等信息化手段进行生产、传播,全流程与技术交融。内容的采集、生产、分发、接受和互动都进入了智能化的渠道,使得全国10亿网民、10亿手机用户深受其惠。而同时,由于大众传播与社交传播、新闻媒体与其他媒体、新闻报道与信息传播、新闻信息与营销信息、传播活动与商务活动,乃至PGC、UGC与新兴的AIGC等日益趋向交叉融合,也带来或扩张了若干众所周知的“虚伪信息”、“群体极化”、“信息茧房”、“算法误导”、“个人信息侵犯”、“网络侵权”等负面问题,既不利于社会安定和公平公正,也损害了广大用户依法使用网络的权利。

这一年多网络内容法治进展,可以归纳两个词:深化和强化。

(1)深度:从内容层进入数据技术层

网络层是一个复杂问题,这里只说明内容治理。传统媒体以及前期网络内容治理,对象限于人们可以感知的内容。而网络传播与以往传统媒体传播不同在于,是把内容数字化,经过通常人们不能直接感知的数据运作,然后呈现出千姿百态的可读、可听、可视等可感知内容。所以网络内容治理从可感知的内容层深入不能感知的数据技术层是必然趋势。2022年底中央“数据二十条”,其中就建立安全可控、弹性包容的数据要素治理制度作出了专章规划。

按照《网络安全法》、《数据安全法》、《个人信息保护法》等法律中涉及网络内容治理的顶层设计,2021年网信办等9部门《关于加强互联网信息服务算法综合治理的指导意见》提出在3年内建立算法安全综合治理格局。在2022年初正式实施部门规章《互联网信息服务算法推荐管理规定》,从法律层面上廓清了所谓“算法没有价值观”的说辞。“规定”要求算法推荐服务者落实算法安全主体责任,建立健全算法机制机理审核、科技伦理审查等各种管理制度和技术措施,制定并公开算法推荐服务相关规则,建立健全用于识别违法和不良信息的特征库。特别是建立算法分级分类安全管理制度,对包括提供新闻信息服务在内的具有舆论属性或社会动员能力的算法推荐服务,要求就其名称、服务形式、应用领域、算法类型等履行备案手续。有关規範被认为是将内容治理深入数据技术层面的创新措施,并为以后各种复杂类型的算法服务规范奠定了基础。

此时,人工智能新技术、新应用奇峰迭起,产生广泛社会影响。如以换脸(Deepfake)术和生成各种虚拟仿真音视频、场景、人物技术而引起轰动而后发展为关于元宇宙的广泛讨论的深度合成技术和以ChatGPT引发的对生成式人工智能技术进一步的关注和开发。国家迅即推出相关法律文件,其治理无不深入到数据技术层。

对2022年末《互联网信息服务深度合成管理规定》,简单提几点:一是规管对象从深度合成技术的服务提供者延伸到技术支持者。二是规管程序贯穿深度合成服务的数据处理环节、算法运行阶段、使用者行为等全过程,包括保障训练数据安全,定期审核、评估、验证生成合成类算法机制机理等;提供人脸、人声等生物识别信息编辑功能的,应当提示使用者告知权利人取得同意;提供人体识别信息或可能涉及国家和社会公共利益的特殊物体、场景等信息编辑功能的模型、模板等工具的,应当自行或者委托专业机构进行安全评估。三是建立标识制度:隐式标识,连同保存的日志信息,确保运行过程可追溯性;显著标识,提示信息内容的合成情况,避免公众混淆误认。四是具有舆论属性或者社会动员能力的深度合成服务提供者,应当履行备案手续并提供评估标本。我们看到国家网信办已经在6月和8月两批公布了共151家深度合成服务算法备案清单。

在2022年末形成对于ChatGPT热议和试用(其中不乏伪造)的热潮到今年9月“文心一言”等“国产品牌”上架,网信办等8部门在8月发布《生成式人工智能服务管理暂行办法》。“暂行”表明为进一步完善留有余地。鉴于生成式人工智能技术显著的积极功能,“办法”有更多倡导性规范,也简单提几点:一是鼓励生成式人工智能技术发展的措施,鼓励各行业、各领域创新应用,而将“规定”范围划定在对“境内公众”提供服务,各类封闭性的专业范围使用不在“规定”范围。二是推动生成式人工智能基础设施和公共训练数据资源平台建设,促进算力资源协同共享,推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。鼓励采用安全可信的芯片、软件、工具、算力和数据资源。三是依法开展预训练、优化训练等活动,将合法性要求从数据延伸到模型;不得生成违法、侵权内容;采取有效措施提高训练数据质量;保存输入信息和使用记录备查。四是承袭先前监管制度,对生成内容进行标识,具有舆论属性或者社会动员能力的生成式人工智能服务,开展安全评估并履行算法备案、变更等手续。

此外,如去年6月修订的《移动互联网应用程序信息服务管理规定》、今年6月《近距离自组网信息服务管理规定(征求意见稿)》、8月《人脸识别技术应用安全管理规定(征求意见稿)》等,也无不体现了数据技术层治理的深度走向。

(2)力度:强化国家权力主导、平台主体责任和网民监督的共治机制

在网络治理过程中形成的政府、企业、社会、网民的共治体制得到进一步强化,其集中表现就是近来出台的一系列关于治理网络暴力的法律文件。

网络暴力是基于网络传播的匿名性、随意性、易复制性以及群体极化等效应而形成的以语言和其他信息形态集中攻击特定人的“软暴力”。世纪之交“人人都有麦克风”以来,许多网暴事件和案件及其危害为大家熟知。而随着网民数量激增,传播手段日益丰富、简便、快速,如刘学州案件等表明,网暴已经成为一种社会公害,必须强化治理。

网信办秘书局去年11月《关于切实加强网络暴力治理的通知》和今年7月《网络暴力信息治理规定(征求意见稿)》,就网暴治理督促各级网信部门特别是压实各类平台主体责任。“通知”就建立健全网暴预警预防机制、强化网暴当事人保护、严防网暴信息传播扩散、依法从严处置处罚等对各地网信部门及平台提出了系统要求。“规定”(征求意见稿)31条,其中25条是对“网络信息服务提供者”的。按照“通知”要求,各平台纷纷采取网暴模型搭建、负面信息过滤、一键举报、私信设置、黑名单制度、违规内容清理、账号封禁、公示公告、发布防暴指南等措施。

最高法、最高检和公安部《关于依法惩治网络暴力违法犯罪的指导意见》在今年6月征求意见而在9月正式发布,是从政法层面惩治网暴的重要文件,可以说是对2013年“两高”《关于办理利用信息网络实施诽谤等刑事案件适用法律若干问题的解释》的发展。首先,“指导意见”惩治对象是网暴,而网暴虽然大量采取诽谤等行为方式,但又不限于此,10年来我国刑法又有若干新规定,“指导意见”涉及诽谤罪、侮辱罪、侵犯公民个人信息罪、非法利用信息网络罪、拒不履行信息网络安全管理义务罪等多项罪名。其次对网暴实行多元共治,完善行政执法和刑事司法衔接机制,规定相关行为尚不构成犯罪的予以行政处罚,对符合公诉条件的案件优先考虑公诉,加强了警方权力。第三,对于刑法规定的诽谤罪、侮辱罪提起公诉条件和自诉转公诉的程序作出完整规定,其中“随意以普通公众为侵害对象,……”,显然是吸取了2021年最高检工作报告肯定的浙江取快递女子被造谣出轨而由检方指示将受害人自诉转公诉的案例的原则。第四,规定重点打击恶意发起者、组织者、恶意推波助澜者以及屡教不改者。第五,正式文本将“征求意见稿”中“惩治拒不履行信息网络安全管理义务行为”提升到标题,同时就网络服务者相关违法行为提起公益诉讼的程序作了修订,从而强化衔接了网信部门压实平台主体责任的要求。

治理网暴是为了保护广大网民的合法权益。虽然上述规章多处规定了受害人或其他网民对于网络违法内容的举报措施,但是举报遭遇“冷处理”仍然相当普遍。网信办在9月发布《关于进一步加强网络侵权信息举报工作的指导意见》,就优化服务、处置机制、制度规范、统一标准、技术支撑等方面作出具体规定,特别是建立网络暴力信息举报快速处置通道和举报专区,快速受理处置“人肉搜索”、恶意攻击、造谣诽谤等网络暴力信息。以此吸引亿万网民成为治理网暴和其他侵权行为的重要力量。

此外还可注意的是7月网信办秘书局《关于加强“自媒体”管理的通知》,将若干规定和平台规则归纳为13条,就各类自媒体平台、数以亿计的“自媒体”庞大群体提出完整而具有法律效力的治理规则。

有关法律文件内容丰富,只能简要报道。许多议题如数据制度、人工智能等学术研究早已成为热门,形成条文的是学术成果中取得普遍认知的层面。今天会上,许多选题独到而富有创意,很值得学习思考。感谢主办方邀请参加此次学术盛宴。

Leave a Reply