近期多地警方披露利用“AI换脸”等技术实施诈骗的案例,新技术发展的安全隐患引发广泛关注。
生成式AI技术的快速发展,让人们眼见也未必为实。不法分子借助智能AI换脸和拟声技术,融合他人面孔和声音、制造虚假图像和音视频,就可仿冒他人身份,轻松实现远程视频诈骗,给群众造成不小的经济损失。
对于公众而言,提高反诈防范意识,保护好个人信息是关键。应尽量避免在社交账户上过多暴露人脸、声音、位置等信息,及时注销不用的网络账号等。涉及转账交易等行为时,务必通过多渠道核实确认,不轻易透露自己的身份证、银行卡、手机验证码等信息。
技术发展带来的问题,还要靠发展技术来解决。AI伪造后的通话和视频虽然能够逼真地模仿人物的语言和行为,但仍存在破绽。例如眨眼频率过低、面部表情较为单一、唇形不匹配、手部动作僵硬等。要加快相关技术研发,开发更为先进的反诈系统,利用大数据与机器学习算法来识别和拦截诈骗信息,以AI反制AI。
预防和惩治AI诈骗还需多方联动,形成打击治理合力。监管部门要持续完善相关法律法规,明确AI技术的合法使用范围和禁止事项,为打击利用AI进行的犯罪活动提供更充分的法律依据。要统筹各方力量实现监管,加大对违法行为的惩处力度,提高违法成本,形成威慑。此外,还要在全社会加强宣传力度,普及网络安全知识,增强个人信息保护意识和风险防范意识,引导AI等新兴技术向上向善发展。 (本文来源:经济日报 作者:李丹丹)