不法人员利用AI换脸实施犯罪为何能屡屡得手?其中的套路有哪些?当眼见不再为实,普通人又该如何防范呢?一起来关注这个话题。
视频通话如何被“秒”变脸
为了了解AI换脸技术,记者近日来到了总部位于北京市西城区的一家网络安全公司。技术人员向记者演示了AI换脸的过程。
奇安信算法工程师 万鸣:我们可以把老师的照片导入进来。刚刚我们在拍的一张照片,点击实时换脸,现在可以通过摄像头捕捉到的画面,就可以看到我们俩现在都被换成了同样的脸。
记者现场体验换脸效果,实现了自己跟“自己”通话的魔幻场景。万鸣告诉记者,现在专业的AI换脸软件,不仅可以实现五官、轮廓甚至皮肤肌理、光影效果的深度伪造,而且可以在微信视频聊天时,实现长时间实时换脸。
记者了解到,利用AI进行深度伪造技术正在飞速提升,仅靠简单的摇头、眨眼或张嘴等动作,已经很难鉴定变脸视频的真伪了。
AI换脸技术滥用 形成多类别犯罪
一张静态照片,瞬间就能生成逼真的动态人脸视频,AI换脸本是数字时代的创新,近年来却被不法分子当作违法犯罪的工具。记者通过检索发现,在“AI换脸”类犯罪案件中,最常见的就是电信网络诈骗,那些让人真假难辨的“杀熟”视频就是利用这项技术合成出来的。
套路一:“AI换脸”冒充老同学 险些骗走40万元
家住内蒙古鄂尔多斯的李女士就曾遭遇过此类诈骗。据李女士回忆,她当时收到一个微信添加好友申请,头像是自己的老同学“贾某”,添加好友后,应对方要求转入QQ聊天。随后,“贾某”主动发起视频通话邀请。
被害人 李女士:跟我视频,没等我接起来就没了,紧接着又跟我视频一次,我还是接不起来。第三次给我打视频,我接起来16秒钟看到他的头像,头比较大,背景都看不到,声音听不到,太吵了,他说网络信号卡,听不到声音,文字交代,他就给我打字。
视频通话虽短,但李女士确实看到了所谓老同学的样貌,便放松了戒备。随后,“贾某”以遇到急事、需借李女士账户周转资金为由,忽悠李女士将40万元现金转到诈骗账户。好在警方启动紧急止付机制,成功将被骗资金拦截。
警方介绍,此类诈骗屡屡得手的关键,在于被害人在视频通话中看到熟悉的面容后打消了顾虑。那么,如何甄别疑似AI换脸的熟人视频诈骗?
奇安信算法工程师 万鸣:如果你对和你通话的人身份有疑问,或者不能百分百确定,除了常规点头摇头,也可以尝试让他快速动头部,用手对脸进行遮挡,来判断是不是真实的人物。如果用手稍微遮挡一下,假脸的五官就会“浮”在手上。
套路二:恶意换脸不雅视频 女子遭报复诽谤
网络安全专家表示,AI换脸类犯罪远不止“视频杀熟”一种。只要涉及面容、声音等特征的社交场景,AI换脸技术滥用都可能引发犯罪。
辽宁沈阳警方曾公布一起案件:王女士在某短视频平台浏览时,发现自己的面部被合成到裸体女性身体上,还配有侮辱性文字。王女士从未拍摄过此类视频,随即报警。
警方锁定犯罪嫌疑人刘某,其到案后交代,不雅视频是他在网络上找人用AI合成的,目的是报复王女士。最终,刘某因触犯《治安管理处罚法》,被处以行政拘留十日并处罚款。
人脸识别被广泛应用于手机解锁、支付转账、账号验证等场景,被认为是高安全等级的保护方式。但随着AI换脸技术发展,这道防线正被犯罪分子不断攻破。江苏省南京市玄武区人民法院就审理过一起此类案件。
被害人朱先生曾收到一条扣款验证码信息,起初以为是诈骗短信未在意。四天后,他打开手机银行发现,账户被某电商平台分两笔扣除共计15996元,用于购买两部苹果手机,且已在深圳收货。经查,朱先生的账户曾被5部不同手机通过3个IP地址登录,异常操作75次。
南京市玄武区人民检察院检察官助理张海月介绍,异常操作包括频繁尝试登录密码、找回支付密码、进行信任登录等。该电商平台还有48个账户被异常操作近200次,这些账户均通过人脸识别重置了登录密码、支付密码或修改了绑定手机号。
南京警方锁定犯罪嫌疑人符某,并在湖南将其抓获。在其出租屋内,民警查扣38部手机,在其网盘内发现非法获取的195万多条公民个人信息和多款AI换脸软件。
经讯问,符某交代,他利用非法获取的公民身份证照片,通过AI换脸软件尝试登录他人账号。由于微信、支付宝等平台需手机验证码辅助登录,仅靠人脸识别无法成功,他最终发现某金融公司平台仅需单一人脸识别即可登录。
通过这种方式,符某在该金融平台登录23个被害人账户,修改5人关联信息,成功完成2次网购支付。最终,法院以侵犯公民个人信息罪、信用卡诈骗罪数罪并罚,判处符某有期徒刑4年6个月,要求其承担15996元公益损害赔偿金、删除所有公民个人信息,并在国家级新闻媒体上公开赔礼道歉。
检察机关同时针对该案暴露的金融平台技术漏洞,发出法律风险提示函,目前该平台已完成整改。记者调查发现,此类单一认证漏洞并非普遍存在,绝大多数人脸识别+手机验证的方式是安全的,银行、支付宝、微信等机构和应用均有多层次技术防护和严格风控体系,保障用户账户与资金安全。
犯罪频发背后:规模化协同化黑灰产业链
记者采访发现,网络上已形成一条隐形的AI换脸黑产:上游负责获取真实人脸数据和个人信息,中游通过技术培训制作AI换脸视频、设计诈骗话术,下游利用AI换脸实施犯罪。其中,获取被害人通讯录、照片库等个人隐私信息,是AI换脸犯罪的重要前提。
个人信息暗网明码标价 一万条起售
网络安全专家表示,诈骗团伙获取个人信息的渠道十分多样。在北京一家网络安全企业,记者看到技术人员攻破的诈骗团伙数据库中,存有海量公民隐私信息,包括姓名、手机号、身份证号、银行卡号,甚至用户理财账户金额和风险评估类型。
这些个人信息在暗网渠道被明码标价、打包出售,根据信息新鲜程度,单价从几毛钱到几元不等,最低起售量一般为一万条。
“内鬼”+“诱饵” 两大渠道套取个人信息
公民个人信息的获取主要有两大渠道:一是行业“内鬼”窃取出售,二是利用非法链接、二维码、手机App诱导套取。
奇安信网络安全专家 李洋:例如从短视频平台爬取人脸照片、昵称信息,从招聘网站买到手机号、姓名、年龄信息,从快递黑市买到姓名、手机号、住址信息,只要有手机号或姓名重合,就能把所有信息拼接在一起。姓名、手机号、身份证号、住址、人脸照片再加社交账号,就能构成一份完整的身份档案。
自制软件干扰相机 绕过社交平台实名认证
除了买卖个人信息,协助AI换脸作恶的手法也日益多样。在某网络安全实验室协助警方办理的一起非法侵入计算机案中,被告人苏某针对安卓手机研发“虚拟视频相机”软件,突破系统安全防护,修改手机相机功能,干扰其正常运行,以此绕过“快手”“抖音”等平台的人脸识别实名认证。
多部门联动整治 筑牢安全防线
为遏制侵犯公民个人信息等网络犯罪,公安部等部门连续多年开展“净网”专项行动,捣毁一批个人信息交易平台。近日,中央网信办、工业和信息化部、公安部会同相关部门,部署开展新一轮个人信息保护系列专项行动,重点治理App、软件开发工具包等产品,以及互联网广告、教育、交通、卫生健康、金融等领域违法违规收集使用个人信息问题。
AI换脸怎么防?需用“魔法”打败“魔法”
在AI换脸犯罪案件不断侦破的同时,相关法律法规也在逐步完善。法律专家表示,人工智能安全治理是全球性难题,目前我国已出台《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《人工智能生成合成内容标识办法》,相关监管体系持续健全。
中国政法大学人工智能法研究院院长 张凌寒:针对AI换脸相关犯罪,国家采用生态治理思路,底线是AI换脸不能突破法律红线。但在法律落地过程中,需要与技术长期博弈。比如,AI换脸违法视频在网络传播时,能否及时鉴别其是否按规定标注生成标识、是否真实,需要技术标准完善、平台落实责任、公民提升素养等多方面共同努力。
反诈软件+鉴伪技术 用技术反制技术
专家表示,维护网络安全需要制度建设与技术创新并重。利用AI实施的犯罪,最终也会随着AI技术的进步而得到遏制。
中国政法大学人工智能法研究院院长 张凌寒:实际上既有伪造的技术,也要有鉴伪的技术。犯罪分子可能利用AI换脸打视频电话诈骗,我们也可以通过手机下载反诈软件进行拦截。用“魔法”打败“魔法”,用AI技术反制利用AI实施的犯罪。
平台担责+个人防范 筑牢双重屏障
专家提醒,遏制AI换脸技术滥用,网络平台需落实审核责任,公民个人也应强化防范意识。
网络安全专家 李洋:国家出台的《人工智能生成合成内容标识办法》,要求AI生成的图片、视频必须添加显性和隐性标识。如果能从技术层面,让所有商用换脸AI工具内嵌不可篡改的数字水印,就能追溯制作者,有效遏制滥用。对个人而言,最关键的是不随便发布清晰正面照,不随意授权相机、通讯录、相册权限,遇到可疑音视频及时留存并报警。
