近期全国范围内出现了一种新型电信诈骗——AI换脸诈骗,该诈骗利用AI人工智能,通过“换脸”和“拟声”技术模仿受害人的朋友或亲戚的声音和外貌,以此骗取受害者的信任,进行网络诈骗,近日包头警方就根据一起典型案例,向大家发出了防范AI换脸诈骗的警示。
据五节舆情监测系统显示,相关话题#AI诈骗正在全国爆发#冲上各大网络平台热搜榜引发关注,全网信息量于5月22日8时至11时达到峰值。
AI换脸致福州某公司老板被骗430万
财联社5月22日讯,据平安包头微信公众号消息,包头警方发布了一起利用人工智能(AI)实施电信诈骗的典型案例,一家福州市科技公司的法人代表郭先生竟在短短10分钟内被骗走了430万元人民币。
据了解,当日郭先生接到了好友通过微信视频的联系,这位自称是好友的人声称正在外地参与竞标,需要430万作为保证金,并要求通过公司账户进行转账。
由于郭先生对好友的信任以及通过视频聊天核实了对方身份,他没有进一步核实转账是否成功,便将430万元分两笔转到了对方提供的银行账户上,直到郭先生拨打好友电话才意识到自己已经被骗。
有网友表示诈骗手段随着科技进步日新月异与时俱进,大数据下的个人隐私收集导致诈骗已经基本实现精准投放了。
也有网友认为AI换脸如果仔细查看、提高警惕是可以避免的,尤其涉及资金交易时,要通过第二通道自主通信确认。
还有网友则认为该诈骗案除了技术因素以外,还涉及双方个人信息的掌握非常容易暴露,可能存在熟人作案。
AI诈骗成功率近100%需警惕
随着互联网技术的发展,各类诈骗模式层出不穷,据湖北网警巡查执法5月6日消息,AI技术改变诈骗,新骗局来袭后,诈骗成功率竟接近100%。
第一种是声音合成,骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。例如,某公司财务接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金,由于老板的口音十分逼真,该财务信以为真,在1小时内转款完成,后发现被骗。
另外还有AI换脸,因为人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群,在视频通话中再利用AI换脸,骗取信任。
结语
在发挥人工智能技术为我们的生活和工作带来诸多便利的同时,新一轮的AI诈骗威胁也应引起公众警惕,这样的警告充分展现了在电话诈骗、网络钓鱼等传统诈骗手法逐渐为人熟知的今天,不法分子正在利用先进的计算机技术如AI进行更隐蔽的欺诈。
特别值得注意的是,换脸技术和拟声技术的广泛应用,让我们面临了前所未有的识别难题。这些技术使得骗子能够伪造他人的面部表情和特征,以及模仿他人的语音,以此达到欺骗的目的。
此外,该案例不仅凸显了人工智能可能对个人财产构成的风险,也揭示了我们需要面对的一个严重问题——人工智能技术的滥用,如何防止滥用,使得AI技术更好地服务于人类,这正是我们在追求科技发展的同时必须要考虑的问题。
为此有关部门需要进一步加强对AI技术的监管,对各类诈骗行为加大打击力度,同时提高公众的防范意识,只有在采取了这样的措施后,我们才能在享受AI带来便利的同时,尽可能地避免财产安全风险,创造一个更加安全的数字生活环境。