近日,一名拥有百万粉丝的女网红爆出了一起“ai换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。
她疑惑地点开了这个视频,结果发现里面的女生和她长得一模一样,但做着一些难以描述的动作,让她感到非常愤怒和无助。她随即意识到可能是她的脸被人工智能(ai)盗用了。
ai技术发展迅速,最近爆火的ai换脸,大家不知道玩过没有。
只需要提供一张带脸的照片,就可以把自己置换成
视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。
有人把鹿晗的脸置换到刘亦菲扮演的“小龙女”角色中,就是下面这个效果。如果不是事先看过《神雕侠侣》,还以为就是本人呢。
骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
人脸效果更易取得对方信任,骗子用ai技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过ai技术筛选目标人群。在视频通话中利用ai换脸,骗取信任。
近日,小李的大学同学通过qq跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
举个栗子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。
运用ai技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?
面对利用ai人工智能等新型手段的诈骗,我们要牢记以下几点:
在涉及到转账交易等行为时,小伙伴们要格外留意,可以通过电话、视频等方式确认对方是否是本人。
在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
即便对方运用ai技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
加强个人信息保护意识,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
这些高科技手段的诈骗方式,迷惑了很多小伙伴。警察蜀黎也提示各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
小伙伴们要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。
如果事先不知道骗子的这些伎俩,被骗的可能性非常大。还是那句话:
你目前还没被骗,并不是因为你多聪明,也不是因为你没钱,而是适合你的“剧本”还在路上。