通版阅读请点击:
展开通版
收缩通版
当前版:03版
发布日期:2024年08月22日 上一版  下一版
上一篇 下一篇
字体:
放大 缩小 默认
朗读:
警惕“AI换脸拟声”欺诈
张忠德
文章字数:913
  “妈,8000元不够,给我转1.5万元吧。”一位母亲正和女儿视频聊天,听着在外地上学的女儿在视频里撒娇抱怨“生活费不够用了”,她心疼不已打算立刻给孩子转账。就在这时,家门打开了,她的“真女儿”走了进来。而另一头,视频里的“假女儿”还在央求妈妈“给生活费”。这是一则AI反诈视频。在这条反诈视频评论区中,不少网友反映自己也有过类似的被骗经历,“骗子来电,声音容貌和我家人一模一样”。
  AI换脸拟声技术,作为人工智能领域的一项创新成果,其初衷在于为人们提供更加丰富多样的娱乐和交互体验。然而,正如双刃剑一般,这项技术一旦落入不法分子之手,便可能成为实施诈骗等违法犯罪活动的工具。
  不同于传统的诈骗手法,AI换脸拟声诈骗以其高度的仿真性和隐蔽性,让受害者防不胜防。犯罪分子通过非法手段获取受害者的声音、面部信息等生物特征,再利用AI技术进行合成,伪造出足以以假乱真的音视频。这些音视频被精心包装成“网店客服”“亲友求助”等看似合理的场景,对受害者进行精准狙击。这种高仿真度的诈骗手段,让受害者难以分辨真伪,从而陷入信任危机之中。
  近日,国家金融监督管理总局金融消费者权益保护局发布防范新型电信网络诈骗风险提示,将“AI换脸拟声”纳入专门类诈骗范畴,广大群众对此必须高度警惕。要有效防范“AI换脸拟声”诈骗行为,法律与监管的及时介入至关重要。首先,政府需加速完善相关法律法规,清晰界定“AI换脸拟声”技术的使用界限,明确相关法律责任,并大幅增强对违法行径的惩处力度。其次,技术开发者要强化自律,全力提升产品的安全性与可靠性。
  对于广大消费者而言,更要时刻保持警惕,擦亮双眼以防受骗。其一,切勿随意在不可信的平台或渠道泄露个人敏感信息,尽量不要在公共平台上过多地上传个人声音、图像等信息,不给不法分子以可乘之机。比如,不轻易在陌生网站填写个人身份、银行账号等重要信息。其二,提高对各类信息的甄别能力。若收到涉及资金、重要个人信息等的可疑请求,务必通过多种方式核实对方身份,如直接联系当事人或相关机构。例如,若收到“熟人”的转账请求,应先通过电话或当面确认。其三,多了解“AI换脸拟声”诈骗的常见手段和特征,增强自我保护意识,对于视频通话中画面或声音异常的情况要保持警觉。