据媒体报道,在AI技术大爆发的当下,高科技犯罪手段也随之更新。一种利用AI换脸技术实施诈骗的手法逐步浮出水面,引发舆论关注。
近日,包头警方发布一起利用AI实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。这起案件曝光后,引发了舆论普遍担心,因为在AI换脸技术的辅助下,诈骗术的欺骗性实在是太强了,让人防不胜防。
比如,骗子并没有用仿真微信加郭先生行骗,而是直接用其好友的微信;再如,转账之前,郭先生为了确认安全,还专门视频聊天核实了身份。这意味着,骗子首先“攻陷”了郭先生好友的微信,然后用AI合成了其好友的脸和声音,骗取了郭先生的信任。以往碰到要转账的情况,很多人会先打电话或者视频确认一下,没想到在AI换脸技术下,眼见、耳听都不一定为实了。这就大大增强了迷惑性,客观上确实给行骗提供了一定的方便。
值得注意的是,骗子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。
舆论指出,AI换脸技术被滥用,所带来的不仅是财产风险,还会引发肖像权、知识产权等领域的纷争。以上述案件为例,还有三个值得追问的问题:其一,个人微信、人脸等隐私信息是如何泄露的?其二,骗子团伙所使用的AI换脸技术服务,到底是谁在开发、提供?其三,如果就此案深挖下去,会不会揪出一条非法利用人工智能技术的黑产业链?
澎湃新闻刊发评论指出,人工智能开发还是一个高速成长的领域,规则的健全完善还需要时间。但不管怎么说,此次案件都提醒我们,技术被滥用的风险,对普通人造成的安全隐患和威胁,绝对不容低估。对大众来说,在人工智能时代,我们得更加警惕,不要随意泄露个人信息,需要转账时更加谨慎地核实。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。只有AI换脸、AI拟声等在每一个环节有据可依、严格授权,提升造假诈骗难度,才能更好保护每个人的信息和财产安全。
|