2025-03-01 智能 0
近日,一起利用人工智能(AI)实施的电信诈骗案件在网络上引发了广泛关注,话题#AI正在爆发#冲上了微博热搜。4月20日中午,郭先生的好友突然通过微信视频联系他,声称自己需要430万保证金,并要求公对公账户过账。基于对好友的信任和已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔将430万转到了好友朋友的账户。事后,当郭先生拨打好友电话时才发现被骗,他原来是受到了一场高科技诈骗。
骗子通过精心设计的人脸识别技术和拟声技术,不仅模仿了郭先生好友的声音,还巧妙地伪造出一段与他进行视频通话的假象。在这次诈骗中,没有使用一个仿真的好友微信添加郭先生为朋友,而是直接用真实存在于社交平台上的好友微信发起视频聊天,这也是导致郭先生被骗的一个重要原因。
值得注意的是,这并不是唯一发生此类事件的情况。据华西都市报报道,在2022年2月,有位陈先生也遭遇了类似的欺诈情况。他被“AI换脸”技术合成后的假面孔所欺騙,被迫损失了近5万元。在浙江温州公安局的一些案例中,还有受害者因为对方利用AI换脸技术,将他们视频中的面部合成到不雅视频中,从而实施勒索。
此外,在2020年,一名上海公司高管也因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,因此该高管损失了150万元。
这些案例表明,利用人工智能进行犯罪的手法越来越多样化和复杂化。首先,他们可以通过声音合成手段,用伪造的声音来骚扰或敲诈;其次,他们会使用AI换脸来伪装成任何人,再通过视频方式进行信息确认;再或者,他们会盗取微信号后借钱,或通过非官方插件实现语音转发等手段。此外,他们还会运用AI筛选特定对象,以锁定最易受影响的人群。
警方提醒,我们在进行网络交易时应该格外小心,不要轻易相信陌生人的请求,更不要急于行动之前就转移资金。一旦发现风险或可疑行为,请立即报告给警方,让专业人员介入处理。此类事件说明,我们必须不断提高自己的防范意识,以抵御这些新兴但又极具破坏性的网络犯罪手段。