创新治理机制遏制AI造谣

丰收

近日,天津市民李萌(化名)的母亲被一篇“有图有真相”的“科普文章”坑骗。现实中被AI谣言坑骗的远不止一人。近期,多地公安机关发布多起利用AI工具实施造谣的案件,一些谣言造成不小的社会恐慌和危害(7月17日《法治日报》)。

造谣传谣是一种社会公害,既侵害他人合法权益,又容易误导公众,还可能引发社会震荡。对此,我国法律予以明确禁止。然而,自从互联网普及以来,各种谣言屡禁不止、屡打不绝。如今进入AI时代,治理造谣又面临新的课题。

AI工具越来越多,客观上为造谣提供了更多选择和便利,大幅提升了造谣效率,增加了造谣方式,降低了造谣成本,还提升了谣言的传播力,让公众更难以甄别谣言,且增加了辟谣的难度。

例如,发布“西安突发爆炸”虚假新闻的账号所属机构,最高峰一天能生成4000篇至7000篇假新闻,每天收入在1万元以上,而公司实际控制人王某某经营着5家这样的机构,运营账号有842个。不客气地说,AI助力不法分子成为“造谣工厂”。记者测试发现,利用AI制造一条谣言,仅需要几秒钟。目前,新闻、科普文章以及图片、配音视频、换脸后模仿声音等,都可以通过AI生成,这意味着AI造谣方式比过去更加多样化。

那么,如何遏制或者跑赢AI造谣,就是一个新的时代命题,是当下和今后治理谣言的重中之重。

在2022年中央网信办等发布的《互联网信息服务深度合成管理规定》,以及今年4月印发的《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》中,已就深度合成服务和AI技术生成信息画出红线,明确了标注要求,这有利于减少和防范造谣。但这么做还不够,必须建立健全治理机制。

进一步强化网络平台治理AI造谣的主体责任。不管是传统网络造谣还是AI造谣,要想发布和传播,都离不开网络平台特别是社交平台。只有强化平台的审核责任以及巡查责任,才有望遏制谣言出现和传播。因为不管AI造谣多高效,要产生破坏力就离不开平台。

针对AI造谣进一步提升辟谣能力。目前,既有专门的网络辟谣平台,也有相关部门和机构主动辟谣,还有新闻媒体也在辟谣。但AI造谣呈现出门槛低、批量化、识别难等特点,已不同于原来的网络造谣,这需要根据AI造谣的特点针对性提升辟谣能力,力争使真相跑赢谣言,压缩谣言生存的时间空间。

公众需提高识别能力及不信谣不传谣的意识。如果平台没有标注AI生成,公众的确很难识别谣言,但如果多些法律常识、生活常识,就会对AI谣言产生怀疑,并通过多种渠道求证真实性。凡是可疑的网络信息,就要做到不传播。

面对AI造谣现象越来越多,社会影响越来越恶劣,是否有必要出台专门治理方案,部署专项整治和长效治理,值得思考。

2024-07-18 1 1 宁波日报 content_164630.html 1 3 创新治理机制遏制AI造谣 /enpproperty-->