DeepFake靠“老板语音”骗走182万!音频版Deepfake让员工乖乖转账( 二 )


骗子一般利用VoIP网络电话账号联系攻击对象 , 绕过通话 , 直接使用语音邮件功能发送合成音频 。
Nisos认为 , 现在的小规模发送Deepfake音频 , 可能只是犯罪分子在“试水” , 随着Deepfakes的创建或购买变得越来越容易 , 音频、视频的合成处理质量不断提高 , 此类电子诈骗将更为普遍 。
普通人该怎么办
尽管Nisos的研究人员说 , 目前这种Deepfake算法还没有外包给单个个体或大规模生产的可能 。
但Nisos通过“特殊渠道”联系到了熟悉Deepfake项目的开发者 , 他们说不确定这种情况将来会不会成为可能 。
音频Deepfake的核心问题不仅要捕捉人的音色 , 还要捕捉具体的言谈举止习惯 。
然而 , 类似Yandex反向图像搜索工具的语音版 , 可以用来收集大量样本 , 然后建立和训练Deepfake模型 , 帮助将源语音转换为目标语音 。

DeepFake靠“老板语音”骗走182万!音频版Deepfake让员工乖乖转账
本文插图
那么当下普通人如何预防类似的诈骗呢?
Nisos认为 , 尽管Deepfake真假难辨 , 但能力毕竟有限 。
对于可疑的留言或语音邮件 , 可以使用已知号码回拨该发送者进行通话;
公司员工也可以针对公司内部信息或某些机器无法轻易回答的问题在通话过程中进行挑战性提问 , 以查明通话对象的身份 。
你曾经遇到过AI生成的语音诈骗吗?


推荐阅读