新闻业面对AI技术怎样行动?

近来人工智能(AI)成为关注热点:3月11日和13日,联合国和欧洲议会相继通过了有关人工智能的决议或法案;18日,我国以中国政法大学教授为首的一批专家发布了《中华人民共和国人工智能法(学者建议稿)》。4月16日,中国社会科学院法学所研究员为首的另一批专家在去年9月草拟发布的《人工智能示范法(建议稿)1.1》基础上经过修订又发布了2.0版。5月初,国务院公布立法计划,人工智能法草案再次列入预备提请审议项目。
AI的应用涉及各行各业。我们知道机器人应用于新闻媒体在我国也已有10年之久,如“快笔小新”、“梦幻写手”(Dreamwriter)等,它们的工作方式大致是运用算法程序向数据库学习运算生成文字,然后经过审核发布。那么当下新闻业利用AI技术又有怎样的进展呢?这些新的文献也可以看作是新的研究成果,对于新闻业又有怎样的启示呢?
就我狭窄的闻知范围,最近的报道大致可见:
有论文从国内外层面对AI如何影响新闻生产创新作了较为广泛的考察,我读后突出的印象是文中指出AI应用仍然“主要扮演辅助工具角色”,即用于处理数据、写作评论、语音交互、编写摘要、制作标题、提供插图或视频(文生图)等,以及进行事实的核查与校对; “还很少见到新闻媒体直接运用人工智能‘无中生有’地生成正式的新闻报道”。
还有学者专门考察了AI主播是否可能代替真人主播的问题,结论是“AI主播播报新闻在可信度、新闻代入感、受众喜爱度、整体质量方面均低于真人主播”。按文中表述,AI主播的内容是事先草拟并经过审核的;这当然完全必要。
我还看见网上消息:近来先后有一家中央级和一家省级新闻机构就本单位AI应用规则制定了文件,我分别通过朋友索取全文,但都没有得到。朋友表示抱歉,我说你不能给我也就是传递了一条信息:规则还不成熟。
尽管如此,我还是想对网上披露的一条担忧发表我的看法。这条担忧认为,随着新闻报道不断被用来喂养AI模型(使用包括新闻报道在内的作品作为语料源来训练AI模型发布生成物已经引发多起版权纠纷,涉及有待解决的法律和法学问题,另行探讨),新闻记者的工作总有一天会被AI模型所取代,那样新闻记者就不需要存在了。对此我认为绝无可能。新闻是对最新发生事实的报道。即使把所有已发布的新闻与其他事实信息全部喂养给某个AI模型,AI模型也许可以超越我前引那篇论文列举的那些表述形态,生成更多更系统更有启示的观点或论述或图像,但是仍然不可能抢先披露刚刚发生而尚未被报道的事实信息。已有数据是不可能通过AIGC“无中生有”地生成新的事实信息的。这也许是10年来所谓“机器人写作”在形态上并无质的进展的根本原因。当然不是不可以设想使用AI模型或者说机器人直接从新闻源获取新的信息,但除非发生严重突发事件需要出动无人机去拍摄现场进行实地报道,如果经常性地用于报道一般事件,至少其消耗算力的成本也是新闻媒体难以承受的。而即使这样做,当然仍然要履行一定程序,也就是仍然离不开人的决策、管理和操控。新闻的采访与传播涉及人与人之间认识与感情的互动,完全由机器来承担可能难以胜任。注意到从联合国、欧盟的文件到我国学者起草的AI法律文稿,都在总则地位突出书写了“以人为本”(human centric),我们不妨细细咀嚼品味一番这条词语的深刻内涵。
欧盟《人工智能法案》还有一句话引起我的关注:文件认为,随着AI合成技术的日益广泛使用,“人类越来越难以将AI合成内容与人类生成的真实内容区分开来”。自互联网进入移动端时代以来,传统建构的单一、线性的信息传播形态遭到彻底颠覆。媒体融合成为无可逆转的大趋势。如今在网络空间,新闻媒体几乎无差别地与各类媒体、自媒体共同面向亿万网民同步提供各自的内容。今年4月发布的第53次CNNIC报告已悄悄地取消了网络新闻用户规模及使用率的统计,我想这当然不是CNNIC的疏漏,而是事实上已难以区分。PGC与UGC趋于融合,而AIGC从文字走向音视频的推广发展势必更加强化这种“真假难分”的局面。面对这样的前景,新闻媒体无疑理应承担起帮助人们区分AI合成内容和真实内容的职责。新闻业进一步探讨如何应用AI的技术和途径无疑有其必要;而其目的还是更高效地向社会传播新闻信息。所以新闻媒体当下尤其要注意在正确价值观指引下,发挥自己公信力、影响力的优势,在第一时间准确地、大量地报道社会关注的真实新闻信息,以防止人们将那些AIGC的非真实内容信以为真,这当然也有利于依法快速清除那些有害的虚假信息及其负面影响。这是新闻业和新闻记者面对AI应用快速发展的形势无可推卸的社会责任。

(原载《当代传播》2024年第4期)

Leave a Reply