骗子的手段越来越高明,越来越让人难以辨别。网络安全专家警告说,骗子现在会使用deepfake技术,即利用AI复制声音甚至面孔,使骗局更加真实可信。

中东女性网络安全组织(Women in Cybersecurity Middle East)创始合伙人兼董事会成员Irene Corpuz引用了今年5月的一个案例:中国香港一家英国工程公司因骗子使用人工智能生成的视频通话而损失了约2亿港元(9400万迪拉姆)。

Corpuz说:“骗子会让你一直说话,这样他们就可以录下你的声音,并在未来的骗局中使用。”

“当受害者(在电话或视频通话中)听到亲朋好友的‘声音’或看到他们的‘面孔’时,骗局就会变得更加可信。”

“如果你接到一个陌生号码打来的电话,尤其是来电者以需要回答‘是’或‘否’的问题发起对话时,一定要谨慎。”

“骗子可能会录下你的声音,用来授权使用语音识别进行身份验证的交易系统……当确认交易请求时,系统会问一个问题:‘您要发起付款吗?’这时骗子就可以使用之前录下的‘是’或‘否’的语音进行非法授权。”

“骗子还可以使用其他策略,让对方相信这是一个来自官方的通话。他们会问:‘你的阿联酋身份证前几位是784-19……然后是……?’请注意,这时候骗子是想通过让你提供自己的阿联酋身份证的其余数字,从而让你掉进陷阱之中。”

对话式人工智能部署和服务机构Raizor的首席执行官JD Ackley表示:“骗子对你的信息是很模糊的,如果他们一直试探性地问你是谁或你的习惯,一定要谨慎,问他们为什么需要知道这些信息。”

“也要警惕不寻常的付款要求。合法的企业是不会要求你以任何类型的礼品卡或汇款方式付款。”

本文资料源自khaleejtimes