您现在的位置:首页 > 时事 > 正文

当AI学会“造谣”,我们该如何应对

2024-07-19 09:49:40

作者:冯海宁

  近日,天津市民李萌(化名)母亲被一篇“有图有真相”的“科普文章”坑骗。现实中被AI谣言坑骗的远不止一人。近期,多地公安机关发布了多起利用AI工具实施造谣的相关案件。记者梳理发现,近年来利用AI造谣现象频发,且传播速度极快,一些谣言造成不小的社会恐慌和危害。(7月17日《法治日报》)

  造谣传谣是一种社会公害,既侵害他人合法权益,又容易误导公众,还可能引发社会震荡。对此,我国《民法典》《治安管理处罚法》《刑法》以及相关司法解释,都为打击造谣提供了法律武器。然而,自从互联网普及以来,各种谣言屡禁不止、屡打不绝。如今进入AI时代,治理造谣又面临新的课题。

  这是因为,如今AI工具越来越多,客观上为造谣提供了更多选择和条件,大幅提升了造谣机会,并降低了造谣成本,还提升了谣言的传播速度,让公众更难以甄别谣言,且增加了辟谣的难度。而且,AI造谣幕后的相关机构或个人,出于某种利益需要,利用AI工具造谣更加疯狂。

  例如,发布“西安突发爆炸”虚假新闻的账号所属机构,最高峰一天能生成4000篇至7000篇假新闻,每天收入在1万元以上,而公司实际控制人王某某经营着5家这样的机构,运营账号达842个。不客气地说,AI助力不法分子成为“造谣工厂”。记者测试发现,利用AI制造一条谣言,仅需要几秒钟就生成。目前,新闻、科普文章以及图片、配音视频、换脸后模仿声音等,都可以通过AI生成,这意味着AI造谣方式比过去更加多种多样,更让人防不胜防。

  那么,如何遏制或者跑赢AI造谣,就是一个新的时代命题,是当下和今后治理谣言的重中之重。从公众到有关方面再到各大网络平台,要合力破解这个命题。

  在2022年中央网信办等发布的《互联网信息服务深度合成管理规定》,以及今年4月印发的《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》中,已就深度合成服务和AI技术生成信息划出红线,明确了标注要求,这有利于减少和防范造谣。但这么做还不够,必须建立健全治理机制。

  比如,要进一步强化网络平台治理AI造谣的主体责任。不管是传统网络造谣还是AI造谣,要想发布和传播,都离不开网络平台特别是社交平台。只有强化平台的审核责任(包括审核发布主体和信息内容)以及巡视巡察责任,才有望遏制谣言出现和传播。因为不管AI造谣多高效,要产生破坏力就离不开平台。

  再如,针对AI造谣进一步提升辟谣能力。目前,既有专门的网络辟谣平台,也有相关部门和机构主动辟谣,还有新闻媒体也在辟谣。但AI造谣呈现出门槛低、批量化、识别难等特点,已不同于原来的网络造谣。这需要根据AI造谣的特点针对性地提升辟谣能力,力争让真相跑赢谣言,压缩谣言的生存时间空间。

  另外,公众也要提高识别谣言的能力以及不信谣不传谣的意识。如果平台没有标注AI生成,公众的确很难识别谣言,但如果多些法律常识、生活常识,就会对AI造谣产生怀疑,并通过多种渠道求证其真实性。凡是可疑的网络信息,要做到不信谣不传谣。如何提升公众识别谣言的能力,也是AI时代一个课题。

  面对AI造谣现象越来越多,其社会影响越来越恶劣,是否有必要出台专门治理方案,部署专项整治和长效治理,值得思考。

声明:本文仅代表作者个人观点,不代表舜网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。