- 警惕ai“换脸”“拟声”诈骗
- 2024-10-30 16:21:06 作者:培烨 来源:大同晚报
当前,ai技术的广泛应用为社会公众提供了个性化、智能化的信息服务,也给网络诈骗带来可乘之机。日前,国家金融监督管理总局发布风险提示,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。
利用ai新型技术实施诈骗主要有“拟声”“换脸”两种手段,即通过模拟他人声音或形象骗取信任,进而诈骗钱财。此类诈骗手段迷惑性、隐蔽性较强,诈骗金额较高,为保护广大金融消费者合法权益,国家金融监督管理总局提示——
一、网络渠道“眼见”不一定为实 “拟声”“换脸”等合成技术的一大特点即“以假乱真”,不法分子可利用此类技术轻易伪装成他人,并通过快速筛选目标人群、定制化诈骗脚本,精准实施诈骗。因此,在涉及资金往来时,一个“声音很熟的电话”、一段“貌似熟人的视频”都可能是不法分子的诈骗套路,消费者应提高警惕。
二、转账汇款务必核验对方身份 面对自称“熟人”“领导”等通过社交软件、电话等以各种理由诱导汇款,务必核验对方身份。比如,可在沟通过程中提问仅双方知晓的问题,也可利用其他通讯方式或见面核实,或向对方的朋友、家人验明身份和情况。在无法确认对方身份时,应尽量避免转账操作。
三、保护好照片、声音等个人信息 消费者应提高个人信息保护意识,不随意下载陌生软件、注册陌生平台或添加陌生好友,对个人社交账户的安全状况保持警惕。尽量避免在互联网过多暴露个人照片、声音、视频等信息,不要因贪图方便就把身份证照片直接保存在手机内。如不慎被骗或遇可疑情形,应注意保存证据并立即向公安机关报案。(编辑:培烨)
-----------------------------------------------------------------------