据中央网信办通报,2025年6月,网络谣言主要聚焦社会热点、灾情事故、伪科普等领域,造谣者通过移花接木、AI生成、伪科学包装等手段虚构或夸大事实,扰乱正常社会秩序。
通报特别提到了灾情事故类谣言中,AI制假信息所产生的破坏力。有网民借机编造“湖南永州蓝山县特大暴雨致汽车被冲走”“福建南平建瓯房道镇路面严重积水”“乌鲁木齐南山板房沟突发山洪”等虚假视频和图文。这类谣言不仅加剧社会恐慌情绪,还干扰正常防灾救灾秩序,可谓贻害无穷。
AI生成广泛存在于信息传播、内容创作等多个领域,在给工作生活带来便利、丰富创作手段、拓展阅读空间的同时,也给信息传播造成了很大的困扰。伪造名人演讲的深度合成视频、以假乱真的“伪科普”文章,还有各种事发现场的照片视频,AI制假信息凭借其高仿真度,正在消解公众的信息甄别能力。
可以说,信息的造假问题已经成为互联网的一颗毒瘤,不治理将侵蚀网络社会的信任基础。无论是从哪方面看,都要求我们必须对AI内容进行严格区分,让AI合成内容回归它本来的面目。
面对AI合成造假的新问题,需要升级管理办法。目前比较常用的防治办法是进行标识,让AI合成内容公之于众,晒于阳光之下。当下,AI制假信息之所以能兴风作浪,很大程度上就是因为它伪装得好,别人看不穿看不透,在真假难辨间钻空子。AI合成内容标识清楚了,这个空间自然也就消失了。
与此相关的法律法规正在完善。今年9月1日起施行制定的《人工智能生成合成内容标识办法》进一步对如何标识作出了详细规定,届时,相关法律法规将一起形成组合拳,堵住AI合成内容治理漏洞。
同时,平台应该进一步督促、约束作者严格执行相关规定,建立起一套标识上可溯源、技术上可反制、法律责任界定上清晰明确的监管机制,让平台算法的抓取和推荐成为网络空间善治的模范,而不是谣言传播的帮凶。此外,AI模型公司也该积极参与治理,模型公司有必要在技术层面嵌入不可篡改的标识模块。
历史经验表明,每次技术革命都伴随着治理模式的迭代。从印刷品时代的知识产权保护,到互联网时代的网络空间治理,人类始终在寻找创新与秩序的平衡点。互联网社会的基础是诚信,只有守住真实传播的底线,互联网才能在技术创新中保持旺盛的生命力。 (高路)