人工智能和网络传播内容治理

第三届传媒法会议(宁波)发言稿
今年3月可称为“人工智能月”。一周之内,联合国和欧洲议会相继通过了有关决议[1] 或法案[2] ;紧接着我国专家发布了《中华人民共和国人工智能法(学者建议稿)》[3] 。此前2023年9月已有《人工智能示范法1.1(专家建议稿)》[4] ,4月中旬又发布了2.0版[5] 。人工智能一时成为学界关注的热点。
人工智能技术应用涉及各行各业。注意无论是联合国文件、欧盟法案还是我国所有的专家法律建议稿,都在总则地位突出规定了“以人为本”(human centric,put people first)[6] ,用我们习用语说,这是AI运营的“纲”。其意义就是防范和制止“异化”(alienation)[7] :人类创造了AI,就是用来造福自己,而绝不能让它反过来损害人类,危害人所固有的尊严乃至健康和生命,甚至有人描绘的AI机器霸凌人类的可怕前景。有代表性的阐述见《人工智能示范法(专家建议稿)》2.0版:“应当以人为本,智能向善,确保人类能够始终监督和控制人工智能,始终以促进人类福祉为最终目标。”
当然今天的话题只限于传播,即AIGC。算力、算法、数据是AI技术的三项关键要素,就AIGC而言,算法无疑是一个核心问题。国家主管部门早在2021年就下发指导文件要求在三年左右建立算法综合治理格局,并连续就“算法推荐”[8] 、“深度合成”[9] 、“生成式人工智能”[10] 发布了部门规章。这里说说几条我近来想到的问题:
1.法律形态的变迁:伦理入法。我国的人工智能法建议稿和已有的几件算法部门规章,都有诸如尊重社会公德和伦理,遵守商业道德和职业道德,积极传播正能量,促进应用或服务向上向善等属于理念性、提倡性、鼓励性的规定。这突破了法是国家强制力保证实施的、即刚性行为规范的传统定义,令人想起法学前辈罗豪才先生受国际法原则启示而提出的“软法”理论[11] 。“刚法”中有“软法”、“软法”与“刚法”兼济,不自今日始,而是法治发展的产物,是并不拥有国家强制力的主体参与社会治理的必然结果。我们《新闻传播法教程》第七版在发行时介绍中就说明书中含有若干新闻伦理的内容。事实上,对于AI治理是先有“软法”,如《新一代人工智能伦理规范》[12] ,然后出台“刚法”作为后盾和保证。2月底网络安全标准化技术委员会发布的《生成式人工智能服务标准化基本要求》也可以归于“软法”范畴。在实施中既要避免“软法”条文成为空话套话,又要防止貌似实施“软法”实则超越、扩充“硬法”的情况,也就是要做到“刚柔兼济”,这是很值得研究的问题。
2.法律关系的变化:新的主体组合及运作。传统的传播行为主体组合,包含信息源、报道者(记者)、传播者(媒体/网络条件下是平台)、传播内容相对人、受众和管理部门,它们之间的权利和义务关系,是很明确的。而AIGC运行和使用过程中,涉及相关方包括研发者、经营者、语料源、使用者、接收者(受众)、监管者以及内容相对人等诸多主体, AIGC作为网络传播的新业态,其建构秩序的主要方式,也已经从“管理”(management or administration)演进为“治理”(governance)。对此,本次会议主办方张文祥教授还有上海社科院唐巧盈等学者已有系统研究和阐述。简单说,所有主体都应从不同角度以不同方式参与治理。知情是参与的前提,透明就这样成为AIGC治理的关键原则。但是透明性要受到种种制约:数据不可能直接认知;各相关方地位强烈不对称、沟通不易,特别是广大受众认知水平有限;设计者知识产权、经营者商业秘密及公平的市场竞争也应受法律保护;而AI应用又是一个不断创新的过程。如何制定切实可行、最大限度兼顾各利益相关方权益而将AI可能的风险降到最低限度的透明规则,需要逐步细化。刘文杰教授有新作,可以参阅。
3. AI应用伴随公害:全民共治虚假信息。AI在传播领域的应用极大丰富了传播生态,但深度合成技术本来就并非用于直接表现现实,非但有图、而且有声有形有场景也并非是真情,真假交融成为网络常态,人类越来越难以将AI合成内容与真实内容区分开来。虚假有害信息乘机进一步成为社会公害;以AI制造热搜或水军造成“千夫所指”的假象也已并非罕见,还被称为AI“赋能引导舆论”。法律对于编造、传播虚假信息行为已有行政、刑事处罚规定;但是尚不“够格”法律制裁的“虚假信息”在网上仍然比比皆是,包括那些语言模型“一本正经的胡说八道”。专业媒体对于事实核查已有相当成熟的规则和经验,而亿万用户如何提升媒体素养,强化区分真伪能力,更是一个亟需探讨的课题。政府和其它权威机构如何在第一时间提供准确信息更是破除虚假信息、制止谣言而同时传播那些虽非真实新闻、但却有价值内容的根本途径。
4.AI技术如何应用于新闻媒体?虽然媒体数字人登场已有10年之久,还打过版权官司,但是目前仍居于辅助地位;甚至可以说主要是品牌效应。除非发生突发事件出动无人机拍摄现场(这在我国还没有过),AI很难也无须直接用于报道事实,而是主要用于处理数据、写作评论、语音交互、编写摘要、制作标题、提供插图或视频(文生图)[13]等 。据新近调查,AI主播播报新闻在可信度、受众喜爱度、整体质量方面均低于真人主播。[14] 近来有一家权威电视机构和一家省级报业集团就本单位AI应用规则制定了文件,我通过朋友索取全文,但都没有取得,可见尚不成熟。看见网上有说新闻记者的作品将会训练出AI记者而取代自己,我看眼下并无可能,除非这个“记者”只是“报道”既定的内容。当然也是一个可以研究的问题。
5.已有法律如何落实?人工智能法并非AI的唯一基础法,AI运行涉及多类部门法,有些原则早已入法。例如在法律建议稿中作为原则设定的生物识别信息规定,《民法典》、《个人信息保护法》早有明确规定。问题在于,生物识别信息的权利方总是最弱势的自然人,面对要求刷脸、按手印等提供生物识别信息的对方则是强势的机关、企业,小民们的唯一保障只能是法律,但是法律赋予的途径实在太少。如《反恐法》规定互联网、金融、住宿等只需查验“客户身份”,但现在还是到处“刷脸”。最高法院人脸识别司法解释也仅仅规定住宅业主对进出小区要求刷脸提出起诉应予准许,那么宾馆、银行等以提供服务为条件获得用户的脸,这符合《反恐法》吗?我们何以自保?难道都只能等待什么机关下一道公文来纠正!而生物识别信息不限于人脸,还包括指纹、虹膜、体型(身体)、姿势、气味、声音(生理)、姿势、步态(行为)等。我们不能以为法律有了原则规定就自然享有了权利,即使有了正式的《人工智能法》,写上了“以人为本”,再添上一段保护生物识别信息,仍然有待进一步具体化。
6.AIGC还对现行法律提出有待解决的新问题。突出的是目前热议中的著作权法。AI应用本身能不能作为著作权主体,这不应该成为问题。如果承认机器可以像人那样成为权利和义务主体,那就从根本上动摇了“以人为本”的纲,这个思维缺口一旦打开,会引申出荒谬推理。像“北互”[15] 和“广互”[16] 两个案件引发的讨论只是在于:AI模型将已发表作品用来做训练素材的行为以及生成的内容与某件作品高度近似是否构成侵权,如何方能构成侵权,利用AI生成的文字、图画等是否以及如何方能构成作品,AI生成内容的权利人和责任人应该是研发者、经营者还是使用者或传播者,如此等等,都是需要探讨的问题。
[1]联合国第78届会议:《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,2024年3月11日通过。
[2]欧洲议会:《人工智能法》(Artificial Intelligence Act),2024年3月13日决议通过。
[3]中国网:2024-03-18 09:05:48,https://hs.china.com.cn/zixun/134405.html
[4]中国法学网:http://iolaw.cssn.cn/zxzp/202309/W020230907361599893636.pdf
[5]https://www.moguoai.cn/17389.html
[6]联合国在2023年12月还发布过《以人为本的人工智能治理原则》。
[7]马克思:《1844年经济学-哲学手稿》,中译本1979,45页。
[8]《互联网信息服务算法推荐管理规定》,网信办等4部门9号令,2022年3月起施行。
[9]《互联网信息服务深度合成管理规定》,网信办等3部门12号令,2023年1月起施行。
[10]《生成式人工智能服务管理暂行办法》,网信办等7部门15号令,2023年8月起施行。
[11]罗豪才、宋功德:《软法亦法》,法律出版社2009年版。
[12]国家新一代人工智能治理专业委员会:《新一代人工智能伦理规范》,2021年9月25日。
[13]参阅周葆华等:《生成式人工智能影响下的新闻生产创新:实践与挑战》,《青年记者》2024.3.
[14]刘娜等:《人工智能主播可以替代真人主播吗?》,《新闻与传播研究》2024.3.
[15]李昀锴 v 刘元春,北京互联网法院民事判决书,(2023)京0491民初11279号(已生效)
[16]新创华 v 某AI公司,广州互联网法院民事判决书,(2024)粤0192民初613号

Leave a Reply