你会在朋友圈
发布自己的日常照片吗?
但你有没有想过
这可能有潜在风险!
一张“人像照片”
一段近距离的人物视频
都有可能成为不法分子
犯罪的新手段和新工具
警惕!AI骗局来袭
多地已出现AI诈骗案例
现实生活中
朋友圈一张“人像照片”
一段近距离的人物视频
都有可能被不法分子利用
成为他们犯罪工具
前不久
深圳警方就打掉了
一个犯罪团伙
前不久,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,点开一看竟然是他和一名陌生女子在酒店房间内的不雅照片。
当事人吴先生:当时我收到一条彩信,里面是我的一张裸照。他当时威胁我,在几点之前要跟他联系、转钱,我当时一想不对劲,就报警了。
深圳警方接到报案后,立即对吴先生提供的线索进行侦查。通过梳理报案记录,警方发现全市有同样遭遇的不止吴先生一人,犯罪嫌疑人的敲诈勒索方式都如出一辙。
随着调查的深入,警方发现这是一个以王某为首的犯罪团伙,团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话敲诈勒索。在掌握大量线索后,深圳警方展开统一收网行动,成功抓获以王某为首的10多名犯罪嫌疑人。
在犯罪嫌疑人的电脑里,警方发现了大量经过合成换脸后的不雅照片。
目前,王某等人已被检察机关提起公诉。案件正在进一步审理当中。
除了深圳之外
此类“AI换脸诈骗”案例
在全国各地已发生多起
01
去年,杭州萧山区人民法院判决了一起用AI换脸制作淫秽视频的案例,被告人因提供AI换脸定制服务,通过AI换脸制作了大量淫秽视频,还用建群的方式吸引观看者付费进群,涉案金额共6万余元,最终被判处有期徒刑七年三个月,并处罚金6万元。
02
据媒体公开报道,去年福州某科技公司CEO收到朋友转账求助,不到10分钟被骗430万元,骗子主要便是利用了AI变脸技术。还有香港某跨国公司员工被骗入不法分子设计的高管视频会议后,将2亿港元打到对方账户。
03
今年6月北京互联网法院宣判了两起AI换脸侵权案件,两位国风短视频模特在社交平台上发现了自己视频出现在某一换脸APP中,于是将该APP背后的科技公司告上法庭,认为其损害了自己的肖像权和个人权益。
法院的宣判是,认定被告使用了原告出镜的视频,但由于涉案视频中的原告面部已被替换,并未侵害原告的肖像权,因此仅认定此举构成对原告个人信息权益的侵犯。
04
前两天,湖北公安破获了一起用AI换脸技术解锁社交账号并倒卖获利的案件。不法分子通过AI换脸专门帮人解锁被平台冻结的交友账号,每解锁一个,收费15元-30元不等。该团伙共解冻了2107个账号,从中获利40万元。
05
据华西都市报报道,2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。
AI诈骗
成功率为何这么高?
它的原理是什么?
面对这么多的AI骗局
我们又该如何防范呢?
一起和Yes君往下看吧!
AI换脸原理是什么?
我们该如何识别防范?
据了解目前
针对“AI换脸”技术
实施各类侵犯个人信息
的行为时有发生
在灰色领域甚至犯罪领域被滥用
AI换脸的原理是什么?
对此中国网络空间安全协会人工智能安全治理专业委员会委员张博详细展示了AI换脸过程和原理:“只需要输入一张正面静态图片,借助人工智能技术,便可以‘移花接木’。”
他进一步介绍,AI换脸的3大步骤原理:面部识别追踪、面部特征提取、面部变化融合。“整体的原理是通过计算机深度学习,精准识别人脸图像,然后提取眼睛,鼻子,嘴巴等重要的面部特征,然后把这些特征与目标人脸图像进行匹配,替换和融合。”
如今
“AI 换脸”技术
已经比较成熟
甚至能够实现
视频通话实时换脸
那我们又该如何
防范、识别AI诈骗?
1、AI诈骗常用手法
①第一种:声音合成骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
②第二种:AI换脸人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。
骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
③第三种:转发微信语音
骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
④第四种:AI程序筛选受害人
骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。
例如:实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。
2、如何防范AI诈骗①多重验证,确认身份
如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心;
对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的;
网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;
如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,在AI时代,文字、声音、图像和视频都有可能是深度合成的。不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息;
②保护信息,避免诱惑
不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号;
对于不常用的APP,建议卸载前注销个人帐号。APP不提供个人帐号注销方式,或为注销帐号设置各类障碍的,请至12321.cn投诉。发现APP过度、强制收集个人信息,也可至12321.cn投诉。
③提高安全防范意识
公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询;
中国互联网协会提醒:遭遇诈骗信息,请至12321.cn反诈专栏举报,如发生资金损失请及时报警;
如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警;
虽然可以识别破绽
但防止网络诈骗还是要从上游入手
首先要防止个人信息的过度外泄
需要采集面部信息的场景,大家还是需要额外留心网络环境和周围环境。在遇到疑似AI换脸的场景中,可以选择通过更加直接的方式,比如说给当事人打个电话,确认对方身份是否真实。
网络安全专家提示,AI换脸等违法行为的最关键原因是个人隐私信息的泄露。
因此,我们在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。
警惕!
这几种照片千万不要随便发
日常生活中不少人
喜欢在朋友圈或短视频
晒美食、晒美景
但如果这些信息
被别有用心的人获取
可能会危及自己和家人
的财产乃至人身安全
下面这些照片千万别随便发
01
手持身份证或手持白纸照
这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。
另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。
02
各种票据类的照片
很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。
03
家门钥匙、车牌等照片
不法者通过大数据等技术手段,通过这些照片会分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。
保护个人隐私至关重要
大家应提高警惕
同时建议定期检查更新
个人隐私设置
确保个人信息的安全
看完快快转发
提醒身边更多人~
▍整合来源:Yes厦门综合N视频报道、央视新闻、广州日报、封面新闻、观察者网、橙柿新闻、中国新闻社、中国互联网协会等编辑:橙子
▍所有图片版权归属原作者,如有侵权请联系删除
▍商务合作或投诉建议电话:153-5925-3518
先看后赞,人生灿烂