找回密码
 免费注册

微信登录,快人一步

搜索
查看: 3662|回复: 5

[社会动态] 新骗局爆发!成功率接近100%!全江门警惕!

[复制链接]
 楼主| 发表于 2023-5-26 15:58:36 | 显示全部楼层 |阅读模式

















江门街坊们
你们有没有想过
和认识的人打视频
视频中那张熟悉的脸
有可能不是对方本人?



近日,一名拥有百万粉丝的女网红爆出了一起“AI换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。

她疑惑地点开了这个视频,结果发现里面的女生和她长得一模一样,但做着一些难以描述的动作,让她感到非常愤怒和无助。她随即意识到可能是她的脸被人工智能(AI)盗用了。


d335aff8cf11fec4b91ae2067bd993db.jpg

AI技术发展迅速,最近爆火的AI换脸,大家不知道玩过没有。


只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。


有人把鹿晗的脸置换到刘亦菲扮演的“小龙女”角色中,就是下面这个效果。如果不是事先看过《神雕侠侣》,还以为就是本人呢。



e9785e1e89a2a92a58678f0f8b84b18d.gif




虽然大部分人对AI的发展抱有乐观心态

但是事实是这种发展给了不法分子可乘之机

不知道大家听说过一句话没有

“当下最积极学习的除了学生,就是骗子了”

随着人工智能的迅猛发展

诈骗团伙的诈骗手段也越来越科技化

竟然用上了AI换脸技术


5月22日

话题#AI诈骗正在全国爆发#

冲上微博热搜



abafb7232529e08986c4be1521c36b19.png


福州的郭先生竟受骗于AI技术

10分钟内损失430万元


AI换脸 佯装好友



近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,警银联动成功紧急止付涉嫌电信诈骗资金330多万元。



2d6efd0c18b953a9355262fae7e7c0c3.png


4月20日11时40分左右,福州市某科技公司法人代表郭先生的好友突然通过微信视频联系到他,两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。


基于视频聊天信任的前提下,郭先生没有核实钱是否到账,于11时49分先后分两笔把430万元给对方打了过去。钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。


郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。


郭先生:“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”





争分夺秒!迅速拦截


因涉案的银行卡
为包头市蒙商银行对公账户
4月20日12时21分
福州市公安局刑侦支队立即采取外协请求
联系包头市电信网络犯罪侦查局
希望包头警方能够帮忙进行紧急止付


包头市公安局电信网络犯罪侦查局立即启动“包头市警银联动绿色查询机制”,当班民警以最快速度完成核查、报审程序,第一时间将涉案卡的信息通报至蒙商银行相关部门。


在银行的全力协助下,仅用时10分钟,就将该诈骗账户内的336.84万元被骗资金成功拦截。同时,向福州市公安局警方提供了剩余款项93.16万元资金流出信息,为深入突破该案剩余资金查找提供了突破方向。


目前,福建警方与包头警方对此资金正在全力追缴当中。




另外今日又爆出一宗AI诈骗

仅用9秒,有人被骗走245万

AI骗局层出不穷,大家务必警惕


视频电话 冒充熟人





c8b190e9406560e011ebd772c2657967.jpg


警方提示


针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;


网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。


如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。


如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。



知识拓展:

AI诈骗常用手法


第一种: 声音合成

骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。


155612tiknw3tx392wn33m.jpg


案例


某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。


第二种:AI换脸

人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!


骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任


155612h55jksk3ejcgcccc.jpg

案例


近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。


第三种:转发微信语音

微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。


尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

第四种:通过AI技术筛选受骗人群

骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。


举个例子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。


运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?


果事先不知道骗子的这些伎俩,被骗的可能性非常大。还是那句话:

你目前还没被骗,并不是因为你多聪明,也不是因为你没钱,而是适合你的“剧本”还在路上。

各位街坊请相互转告
遇到熟人突然和自己进行金钱往来的
请多留心眼,再三确认


64e3ac7ec044ac05da432dc14cd8a569.png

不要过分相信屏幕中那张熟悉的脸
因为现在我们已经不能确定
屏幕的那边,究竟是谁?


6b71410ce9dc2c02516e2b68bc39433c.png


资料来源:平安包头、武汉市反电信网络诈骗中心

发表于 2023-5-26 16:11:09 | 显示全部楼层
还好我包包里没有400w
回复 好评 差评

使用道具 举报

发表于 2023-5-26 16:23:56 | 显示全部楼层
好彩我一直用现金
回复 好评 差评

使用道具 举报

发表于 2023-5-26 16:36:08 | 显示全部楼层
科技越高都唔系一件好事
回复 好评 差评

使用道具 举报

发表于 2023-5-26 16:43:39 | 显示全部楼层
宜家诈骗都咁犀利啦??
回复 好评 差评

使用道具 举报

发表于 2023-5-26 22:53:14 来自手机 | 显示全部楼层
回复 好评 差评

使用道具 举报

您需要登录后才可以回帖 登录 | 免费注册 |

本版积分规则

手机版|小黑屋|江门汇声汇色 ( 粤ICP备15082236号 )

GMT+8, 2024-5-18 13:08 , Processed in 0.164970 second(s), 29 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表