关于保护个人信息,防范“AI换脸”诈骗的风险提示

来源:国家金融监督管理总局网站 点击数:154 发布时间:2024-01-31

伴随着AI深度合成技术的成熟,AI深度合成产品和服务井喷式涌现,不少如“AI换脸”“AI换声”等尚处监管灰色地带的产业野蛮生长,为不法分子提供了可乘之机,成为网络欺诈和身份盗窃等犯罪活动的工具。这种利用AI技术融合他人面孔和声音、制造逼真的合成图像来实施的新型网络诈骗,呈现手段愈发多样、门槛大幅降低、辨别难度加大等特点,常令消费者放松警惕,短时间内造成较大损失。为保护金融消费者合法权益,监管部门提醒广大消费者警惕利用AI技术的新型骗局:

骗局一:冒充熟人诈骗钱款。在实施犯罪前,不法分子首先分析公众发布在网上的各类信息,根据所要实施的骗术筛选目标人群,通过拨打骚扰电话、盗用聊天软件信息、收集网络社交媒体信息等提取,或是通过非正规的借贷、兼职平台购买注册用户的人声人脸素材。不法分子再利用这些影音素材,借助AI声音合成和AI换脸技术,向该目标的亲友发送虚假语音信息,或实时视频通话,用以假乱真的声音、面容博取信任后实施诈骗。

骗局二:冒充明星虚假宣传。不法分子通过AI换脸技术将现实中的人脸替换成某知名公众人物的脸,并通过社交媒体传播,诱导用户和粉丝点击链接下载恶意软件或输入个人信息,造成消费者信息泄露;或利用该公众人物的社会影响力“直播带货”,诱导不明真相的消费者购买伪劣产品。这些依托AI手法大量生成并在社交媒体上广泛传播的侵权内容,既侵害消费者的公平交易权,也对被冒充公民的肖像权、名誉权和隐私权构成巨大威胁。

骗局三:盗开账户诈骗钱款。不法分子通过冒充公安、司法等部门工作人员与消费者联系,通过视频通话盗取消费者面部信息,随后利用AI换脸等技术通过一些APP账户注册人脸识别验证,而后诱骗消费者提供验证码将银行卡与账户绑定,从而将消费者银行卡上资金转移到不法分子控制的账户。

AI换脸进行视频合成、实施诈骗的行为是利用新技术进行的诈骗,与传统诈骗行为在本质上没有区别,防范方式也万变不离其宗。监管部门呼吁广大消费者牢记以下防范要点,做好个人信息安全第一责任人,谨防AI换脸诈骗:

一是多方核实,确认身份。认真核实身份信息,对亲友熟人线上发来的消息,若包含转账汇款、提供个人信息、提供短信验证码等涉及重要决策或敏感信息的请求时,应保持高度警惕,通过主动更换渠道如电话、视频提问等方式多重确认对方身份。AI拟声、AI换脸包装作伪后的通话虽能逼真地模仿原始人物的语言和行为,但仍充满破绽,例如眨眼频率过低、眼睛移动不协调、面部表情不自然、唇形不匹配、语句不连贯等。若在与亲友视频语音沟通中发现上述异常行为,应立即警觉。在核实无误后确需转账的情况下,应尽量向银行账户转账,避免通过社交软件转账,有助于进一步核实对方身份、跟进转账信息,一旦发现风险,及时报警求助。

二是保护信息,拒绝诱惑。提高信息保护意识,特别警惕需要录入个人信息的非正规软件,如走路赚钱、刷单兼职APP等。在开启“定位服务”、输入“身份证号”或是录入“人脸识别信息”、“指纹识别信息”等个人生物信息时一定要慎之又慎;发现APP过度、强制收集个人信息时及时向有关部门投诉举报。此外,妥善设置个人社交账户的浏览权限,不过度公开或分享涉及个人信息的动图、视频等,对不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,不轻易向陌生人开启手机屏幕共享。

三是相互提示,共同预防。对身边的亲友多加提醒,互相交流,共同应对新型AI骗局。对新兴AI技术不了解不敏感的中老年人往往成为AI换脸诈骗的潜在受害者,广大消费者在对身边的这类人群加强常规反诈提示的同时,也要注意揭示不法分子的新手段:视频电话眼见、耳听未必属实;勿与陌生人视频通话,个人信息切不可轻易对外提供,共同提高风险防范意识,保护个人信息安全。