加强研究人工智能引起传播秩序的新变革

在新闻传播法与伦理研究分会年度学术研讨会的演讲

人工智能artificial intelligence自本世纪20年代以来形成应用、观察、谈论和研究的新的热门话题,我们传播学研究领域也不例外。在这个领域,主要讨论AIGC(AI-generated content人工智能生产内容),或称生成式人工智能(GAI,generative artificial intelligence),对这两个概念这里不加区别,主要是有别于诸如交通、医疗、家政等等其他领域人工智能的应用。

1.AIGC是一种什么形态的传播?

通常把互联网发展分为web.1.0、web.2.0、web3.0三个时期。在web1.0时期,传播形态与传统媒体时代(人际传播、组织传播、大众传播等)没有区别。本世纪初叶进入web2.0时期,主要特征是个人可以自己生成内容并向多数人和社会传播,传播形态在原有基础上增添了“向公众传播”(communication to the public)概念(首见国际版权公约)。到20年代进入web3.0时期,其特征至今还没有公认的概括,但是可以肯定AIGC是其中重要的一项传播方式。

那么AI体呈现内容(文字、图像、视频、音频等)的过程是什么形态的传播?是谁发起的?是运营者?信息源?还是使用者(用户)自己?接收者是谁?是向AI提问的用户个人吗?用户也可以利用AI体制作内容,不同用户提问同一个问题显示的内容也会有所不同,那么用户不是也成为发起者吗?很多生成内容会通过平台向社会传播,公众成为普遍的接受者,这应该怎么概括呢?是不是可以认为构成一种新型的传播形态?那么可称为什么“传播”?

2.AI体能够成为传播行为的主体吗?

学术界曾经就此开展过讨论,如《光明日报》(2024),大致可以归纳以下观点:

a.工具派:AI体永远只能是人类的工具,不可能成为具备法律和伦理责任的行为主体,法律和伦理责任永远归于人类主体(研发者、使用者、平台经营者等)。如果承认其主体资格,那么意味着将会导致出现奥威尔《1984》中“老大哥”(big brother)的后果。

b.主体派:AI体具备一定的自主传播能力,随着科技发展而日益发展,需要研究在学术与法律层面明确其主体地位。

c.折中派:主张赋予 AI 体限定的法律人格,以平衡技术创新与监管需求。或者至少承认在未来将成为与人类平起平坐的主体。或者认为这个问题现在为时过早。但是尚未见到具体有什么设想。

我本人是持a主张,当然不排除与其他主张进行讨论。

3.如何将AI体纳入治理体制?

我国目前以《网络安全法》、《数据安全法》等为上位法,制定了《网络数据安全管理条例》(2024)等行政法规,《互联网信息服务算法推荐管理规定》(2021)、《互联网信息服务深度合成管理规定》(2022)、《生成式人工智能服务管理暂行办法》(2023)、《人工智能生成合成内容标识办法》(2025)等部门规章,但谁也没有否认这些监管规定都还是初步的,连名称都标明只是“暂行”。专家起草了《人工智能法》稿本,至今尚未列入国家立法计划,说明发展AI规制、建立相对完备的治理制度尚待相当时日。

值得注意的动向是“伦理入法”。现有相关法规文本几乎都有尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则,鼓励生成积极健康、向上向善的优质内容,坚持主流价值导向,积极传播正能量,这样的一些规定。这与以往的通行以“禁止”、“不得”为特征的法律规范相比形成了鲜明的特点。

这是不是可以认为意味着在AI领域,单纯依靠以国家强制力保证实施的行为规范体系已经不够适用,必须建立起法律+伦理、法治+德治、“硬法”+“软法”这样的一套治理体系。如何建立并完善这样的体系,需要传播学、法学、伦理学等学界与实际部门的共同努力。

4.如何规范AI体运营者与数据源的关系?

AI体只有源源不断地从各种数据源吸取大量数据才能提供各种有用的内容,AI体运营者与数据源的关系,需要从公法与私法两个方面予以调整:

公法层面:有关规章已有必须使用具有合法来源的数据和基础模型,应该对生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等信息的进行安全评估等规定,对于具有这些内容的数据源,特别是来自境外的可疑数据源、敌对数据源,无疑必须予以摒弃和抵制。

私法层面:AI体与数据源这双方运营者应该是合作关系、双赢关系,但至今中外都已发生过被当作数据源的新闻媒体或其他出版者、传播者与AI体运营者发生纠纷的案件,那么应该如何防止和对待、处理此类纠纷?是否可能或者必要以合同来明确双方的权利和义务?鉴于AI体获取数据范围十分广泛,获取的大量数据大多数已难以回溯来源,在我国现有538款备案的AI体中发生纠纷的比例极低,是不是有可能从学术上设定AI体“合理使用”的避险界限?

5.如何规范AI体运营者与使用者(用户)的关系?

AI体既可以向用户提供内容也可以帮用户制造内容。AI体传播虚假内容常有发生。除了不法用户利用AI制造和传播虚假内容外,AI体运行过程中也会收取和形成不确内容,还会产生“幻觉”(hallucination),但是AI体运营者并没有也不可能对AI体的内容承担核实的法定义务。对于用户蓄意利用AI体制造和传播虚假内容的行为适用现行法律予以制裁已有许多案例,不必列举。为适应AI体这种运行特点,《人工智能生成合成内容标识办法》(2025)以及据此制定的强制性国标《网络安全技术 人工智能生成合成内容标识办法》(GB 45438-2025)就不同类型AI生成物必须加以标识作出具体规定。

但是标识是不是就等于免除了AI体运营者对于虚假内容或有其他具有损害性质的内容的一切责任呢?如果AI生成虚假或其他有害内容已经广为传播产生损害后果,AI体运营者却并未采取措施,是不是应该与传播虚假或有害内容的用户承担共同责任呢?再说,AI体多次传播,已经不是向个别用户的点对点传播,而是具有“向公众传播”的特征,即使权益相关方并未提出异议,运营者也可能不应该以有了标识为由而对有害生成物内容全部免责。有待研究。

6.如何规范AI体使用者(用户)与其生成物的关系?

这是近年来相当常见的法律纠纷。用户使用AI体运行的生成物如文字表达、图像、视频等等,是不是拥有版权?在什么条件下拥有版权?近年来像春风送来了温暖案(2023)、先后两个奥特曼案(2024)、蝴蝶椅子案(2024)、伴心案(2024)等,在座都应该知道。法院的判决,有认定享有版权(春风送来了温暖)、独创性较低但酌情赔偿(伴心)、提示词缺乏独创性不具备版权(蝴蝶椅子)等不同结果,还有判决AI平台承担共同责任(两个奥特曼案)的。而学界对判决也各有不同意见。对此亟待予以进一步研究探讨。

7.如何规范不同AI体运营者之间的关系?

不同的AI体运营者属于同行,按常规存在合作互补、竞争互补的关系。但AI体到处获取数据源,也可能向另外的AI体获取。这是不是存在权益冲突的风险?半年前发生抖音诉亿睿科案,法院认定公司未经许可直接使用了抖音公司变身漫画特效模型的结构和参数,违背了人工智能模型领域公认的商业道德,并侵害了抖音公司的合法权益,扰乱市场竞争秩序并损害消费者长远利益,构成不正当竞争行为。这个案子值得当下蓬勃发展的AI体运营企业的注意,当然也给我们传播法和伦理研究提出了新的个案。

8.如何区分人类制作内容与AI生成内容?

欧盟《人工智能法》有这样一句话:“人类越来越难以将AI合成内容与人类生成的真实内容区分开来。”这将成为越来越普遍的法律和伦理问题。在法的层面,已有的部门规章和强制性国标只是识别AI生成内容在线传播的行为,不及线下。在日常工作生活场合,好比在座老师们应该都会遇到如何处理学生使用AI完成作业或论文的问题,使用要有一个适当的限度,不能允许将AI生成内容作为自己作业或论文来“交差”。这在教育界形成一个讨论热点,需要进一步探究。

还有不少问题,例如平台与AI体运营者、用户的关系等,不及细述。谨此向在座诸位请教,敬希教正。

Leave a Reply