您现在的位置:首页 > 社会 > 正文

为“AI换脸”戴上紧箍

2023-10-30 13:42:46

作者:李方向

  “不法分子通过AI换脸和拟声技术,佯装熟人实施诈骗。”“在镜头前面的那个人,他是不是一个真实的自然人?人是不是真实的?证件是不是真的?人证是不是一致?需要远程核身的手段。”近日,世界数字城市大会“生物特征识别技术应用论坛”上,陈友斌教授介绍:“人脸识别技术已经落地各项应用,由此引发的个人隐私泄露等问题也日渐突出。”

  (10月29日《广州日报》)

  镜头前的那个熟人竟然需要远程核身手段,才能确定是不是自己熟悉的那个人,这并非危言耸听,而是有些人因盲目相信镜头前那个“熟人”已经被骗。今年4月,福州市某公司法人代表郭先生的一位“好友”突然通过微信视频联系他,称需要430万元保证金,基于对好友的信任加上已经视频聊天核实了身份,郭先生就直接分两笔把430万元转到了对方指定的银行卡上。事后,郭先生拨打好友电话才知道被骗。

  自己的熟人尤其是经常打交道的人,一般是不会认错的。为何还能被骗?是因为镜头前的脸和声音都太逼真,已到了让人无法分辨的地步。这种技术被称为AI“深度伪造”。简单来说,就是利用AI拟声、换脸,使其与目标人物具有高度相似的外观和声音,并能够与用户进行实时对话互动。

  镜头前的熟人竟然成了新型诈骗作案的工具,这是一件十分可怕的事情。AI“深度伪造”使交互变得虚实难辨,耳听或眼见未必为实,会带来一系列负面影响,例如财产损失、个人形象受损、甚至身体安全受到威胁等等。

  深度合成技术不是法外之地,不能任由AI“深度伪造”技术野蛮生长,必须为其戴上“紧箍”:一方面,严格审批。对AI深度合成技术开发企业及生产虚拟数字人的企业,相对普通企业应上提一级审批,对销售对象要能够追踪溯源,以减少AI“深度伪造”和虚拟数字人使用者乱来的冲动;另一方面,严格追责。要明确开发商、销售商、运营平台的责任,划定红线明确违法违规严厉处罚办法,倒逼各方履行职责促进AI技术向上向善。另外,身处在人工智能时代的每一个人,都应该提高对深度合成技术的辨别和防范意识,不要轻易泄露个人生物信息,当涉及财物时更不要轻信镜头前的“他”,一定要认真核实,如电话回拨等,避免给自己造成不必要的损失。

声明:本文仅代表作者个人观点,不代表舜网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。