金融监管总局:警惕利用AI新型技术实施诈骗
随着AI技术的广泛应用,一些不法分子也将其用于实施诈骗。近日,国家金融监督管理总局发布消费者权益保护风险提示,提醒广大公众警惕利用AI新型技术实施的两种诈骗手段“拟声”和“换脸”。“拟声”和“换脸”是两种新型的诈骗手段,不法分子利用AI技术合成的声音和人脸图像冒充亲友或其他熟人,诱导受害人汇款或提供敏感信息。这些诈骗手段隐蔽性强,不易察觉,一旦上当受骗,所造成的经济损失会很大。不法分子通常以各种借口取得受害人的发音样本或照片,然后使用AI技术制作出受害人亲友的虚假音频或视频。之后,利用这些合成内容联系受害人,以帮助亲友借钱或有紧急情况为由,哄骗受害人汇款或提供敏感信息。有时,不法分子也会利用AI技术伪造名人形象进行虚假宣传,达到诈骗目的。因此,金融监管部门提醒广大公众要提高警惕,在网上交流时注意保护好个人信息,避免过多暴露个人声音、照片等,特别是身份证、银行卡等敏感信息。即便是熟人要求汇款,也要核实对方身份,避免被骗。一旦发现问题,应及时报警处理。同时,相关部门也需加强监管,采取有力措施打击这类新型网络诈骗犯罪。
© 版权声明
文章版权归作者所有,未经允许请勿转载。