近年来,随着生成式人工智能服务的迅速普及,网络谣言也呈现出多模态、高仿真、大规模等新特征。据清华大学新闻与传播学院新媒体研究中心发布的报告显示,2023年以来,人工智能技术被滥用导致AI谣言信息量在半年内增长65%,显著提高了网络治理的复杂性与紧迫性。
面对这一挑战,行业正积极回击,用AI治理AI。抖音日前宣布,在其平台谣言治理中引入大模型能力,实现“发现即管控”,初步形成规模化、自动化治理能力。此举使平台上的谣言曝光量在一个季度内下降67%。
增长65%,下降67%。这两个数据展现出的悖论值得深思:人工智能让制造谣言更容易,也让治理谣言更高效。
人工智能技术大幅降低内容生成门槛,文字、图像、音频、视频等多模态信息均可被高效合成与修改。如,“7月1日起老年人坐火车可打折”“每20个‘80后’中有1人已去世”等网络谣言,因内容逼真、传播迅速,极易误导公众并引发社会焦虑。
美国《科学》杂志相关报告文章显示,虚假新闻的传播概率比真实新闻高出约70%。尤其在突发事件中,AI可快速生成并扩散谣言,传统人工核实与辟谣机制难以应对指数级增长的信息规模。
以往平台治理谣言多依赖媒体曝光或机构辟谣,再通过人工录入谣言库、回查与拦截,处理周期常以“天”为单位。如今,大模型技术正在改变这一滞后局面。
以抖音为例,其采用的治理大模型可主动识别具有一定传播热度的内容,提取视频关键信息并进行实时联网检索,核验其真实性。如,检测到“老年人火车票打折”这类疑似谣言时,系统自动对接权威信源进行交叉验证,完成风险判定与处置。目前,单例谣言处理时效已缩短至“小时级”。
此外,抖音于今年9月推出“AI抖音求真”功能,以“求真卡”形式在相关视频及搜索场景中嵌入澄清信息,使用户在浏览过程中即可获取事实核查内容。
尽管AI技术显著提升治理效率,但其能力仍高度依赖已有数据与规则样本。一方面,面对全新类型或动态变化的谣言,尤其是利用“AI幻觉”生成的非恶意虚假信息,人工审核与权威信源介入仍不可替代。毕竟大模型技术再进步,其知识也来源于已有数据。另一方面,AI谣言常具有跨平台、自动化分发等特点,靠单一平台难以根治。
业内观点认为,实现有效治理,需构建“技术+政策+公众+生态”的多维协作机制:相关部门需明确AI生成内容的法律责任主体与监管规则;媒体机构应建立快速响应与事实核查机制;公众举报与数据共享也将发挥重要作用。
从产业角度看,AI治理不仅限于“辟谣”,而是涵盖技术防控、法律法规、公众教育和行业协同的系统工程。未来,伴随大模型持续迭代与多模态检测技术升级,AI治理效率有望进一步提升。与此同时,如何健全AI伦理规范、强化平台责任、提升公众信息素养,也将成为产业和政策层面长期关注的议题。