生成式AI滥用加剧中东信息战 虚假内容泛滥引担忧

近期美以伊冲突持续升温,围绕战事进展和伤亡情况的虚假信息也随之泛滥。与以往不同的是,这些谣言不再是简单的移花接木,而是通过生成式人工智能技术批量制造。这些合成内容画面逼真、叙事完整、发布密集,形成了与真实战况并行的"第二舆论场",严重干扰了公众判断。 虚假内容激增的背后有三个主要原因。首先,技术门槛大幅降低。过去需要专业团队才能制作的合成画面,如今通过生成工具短时间内就能完成,成本下降导致规模化生产成为可能。其次,公众对冲突信息的需求旺盛。战事快速演变,人们通过社交媒体追踪前线动态,为未经核实的内容提供了传播温床。第三,平台的流量激励和变现机制放大了逐利冲动。越来越多网络创作者将合成内容包装成"独家现场",通过高播放量获取分成和广告收益,使"造热点"成为一条可复制的商业链条。 虚假信息的危害远超误导。它会淹没权威信息和现场证据,造成"真信息被埋没"的传播效应。英国广播公司追踪的一段"导弹袭击特拉维夫"的合成视频在多个平台被反复转载,用户甚至通过平台内置工具鉴别真伪,但该工具多次误判为真实画面,继续扩大了误导范围。 谣言还可能引发公共安全风险。一段"迪拜哈利法塔起火、人群奔逃"的合成视频获得数千万次观看,在当地民众对安全风险高度关注的背景下,容易诱发恐慌。更令人担忧的是,伪造"证据"正在向更高难度领域渗透。核查人员发现,本轮冲突中出现了伪造卫星图像。有账号发布所谓巴林美军设施"严重损毁"的图片,经检测工具识别为生成或编辑产物。这些伪造图像基于公开卫星底图改写,细节相似度高,增加了甄别难度,削弱了公众对网络信息的信任,也给真实影像的存证制造了障碍。 面对合成内容"批量化、自动化、产业化"的趋势,平台和机构已开始调整应对。社交平台X表示将暂停发布未标注合成武装冲突视频的创作者的变现资格。牛津互联网研究院认为这表达出平台意识到问题严重性的信号。但英国媒体向脸书和照片墙母公司询问类似措施时未获回应,说明各平台的治理节奏和力度仍不均衡。 业内人士指出,有效治理需要多管齐下。一是完善标注与来源披露规则,将"是否合成、合成方式"作为内容发布基础信息。二是将水印与检测工具纳入平台审核流程,提高对合成内容的机器识别能力,并与人工核验联动。三是调整推荐与分成机制,对疑似蹭热点、反复搬运合成内容的账号降低传播权重,切断"谣言—流量—收益"的利益链。四是鼓励权威媒体、专业机构与平台建立快速核查通道,提升辟谣效率。 生成式人工智能等技术将继续深刻改变冲突叙事与信息传播形态。一上,技术可以提高公共信息服务效率;另一方面,若缺少规范约束,合成内容会在重大突发事件中不断"抢跑"事实。未来,标注标准、内容责任边界、跨平台协作与国际规则对接等议题,将成为平台治理与社会共治的重点。对公众而言,"先核实、后转发"愈发重要;对平台而言,任由虚假内容借变现机制扩散,不仅损害用户信任,也将反噬平台生态与公共利益。

当技术创新速度超越社会治理能力时,虚假信息的阴影便随之扩张。美伊冲突中的谣言浪潮不仅是区域性危机,更是数字时代全球治理的严峻考题。如何在保护言论自由的同时守护真相,需要各国跨越地域与意识形态分歧,共同构建适应技术革命的信任机制。