V观话题丨10分钟骗走430万元!“AI换脸”骗局凶猛,如何防范?

2023-05-23 11:32:40来源:四川在线综合编辑:林霜

昨日

话题#AI诈骗正在全国爆发#

冲上微博热搜

近日,包头警方发布一起使用智能AI技术进行电信诈骗的案件,确认过长相声音,一家科技公司的法人代表仍然10分钟内被骗430万元。

案件细节曝光

视频聊天骗走430万元

据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。

4月20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。

“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。

幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,成功止付拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴中。

骗子手段防不胜防

“AI诈骗”成功率竟近100%

据华西都市报此前报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。

浙江温州公安曾发布消息,2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。

据警方介绍,AI诈骗还有不少花样,通过声音合成、AI换脸、转发语音等手段,成功率竟接近100%。

如何防范?警方提醒:多重验证,确认身份

1、不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

2、网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

3、如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;

4、如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。

北京日报发表评论称,作为一种新技术,AI本来是中性的,但因为背后使用的人不同,出现了善恶之分。这也提醒我们,普及人工智能技术时,必须以法律和道德加以规范,避免滥用、泄露和侵犯个人信息等行为。

我们国家已经较早开展人工智能立法探索,并且针对“AI换脸术”专门出台了管理规定。但监管之下,“灰产”恐怕还有变种。随着AI技术的普及,监管需要进一步跟上,大家也需要提高警惕,因为我们每个人,都可能是AI作恶的受害者。

综合 中国新闻社微信公众号、徐州警方微信、北京日报等

对于AI诈骗频发,你怎么看?你遇到过AI诈骗吗?你觉得该如何预防AI诈骗?

    编辑推荐