「品品科技」全球诈骗案件已屡次得逞,AI软件克隆你的声音( 三 )


(PindropCEOVijayBalasubramaniyan , 图片来自网络)
除了Pindrop等小公司 。 硅谷科技巨头也积极的致力于寻找检测Deepfake音频的方案 。 例如 , 谷歌在去年年初与GNI合作 , 发布了一系列合成语音 , 其中包含由其深入学习的文本到语音(TTS)模型所说的数千个短语 , 来自英文报纸文章68种不同的合成语音 , 并涵盖了各种区域口音 。 该数据库提供给了2019ASVspoof挑战的参与者使用 , 该竞赛旨在开发针对假语音的对策 , 特别是可以创建区分真实和计算机生成的语音的系统 。
同时 , DeepFake音频的潜在威胁也可能会改变用户的行为 , 使用户在向互联网上传声音时更加谨慎 。 Pindrop调查的诈骗案例中就有这样一位受害者 , 他几乎没有在任何社交平台上公开过自己的声音 , 仅仅是因为召集员工开会时的讲话被窃取 , 就成为了犯罪分子的目标 。 这样的案例不禁会让人联想:“既然这么谨慎的人都会存在被诈骗的风险 , 那么我们干脆就不要在公众平台上表露自己的任何生理特征 , 包括声音和长相 。 这实在太恐怖了!”
(图片来自网络)
不敢想象 , 如果我们的公众社交平台上面看不到任何超出文字以外的更生动的表达 , 那么几十年来的科技和信息发展不就白费了吗?这无疑是对多年来为人类科技文明进化做出贡献的科技工作者的侮辱 。
小探相信 , 随着AI不断的发展 , 我们所面对的DeepFake威胁将会越来越多 。 因此 , 无论是视频或音频 , 建立一个完善的安全审核机制是非常有必要的!
关于预防DeepFake的安全机制 , 你还有什么想法吗?欢迎来评论区留言哦!
参考链接:
https://www.pcmag.com/news/is-ai-enabled-voice-cloning-the-next-big-security-scam
https://9to5google.com/2019/01/31/google-deep-fake-audio-detection/
https://www.washingtonpost.com/technology/2019/09/04/an-artificial-intelligence-first-voice-mimicking-software-reportedly-used-major-theft/
扎克伯格多疑又偏执?《连线》杂志采访人员曝光Facebook鲜为人知的秘密
2020年 , 我们离“打飞的”还有多远?全球飞行出租车市场大盘点
美国AI公司30亿人脸数据被黑 , 遭科技巨头联合“封杀”
Google和Facebook相继取消大型会议;特斯拉自动驾驶系统存在缺陷?|科技前沿周报
斯坦福区块链大会成功召开 , 来看看发生了什么?
疫情之下,很多公司在裁员,为什么这些硅谷公司却能躺赢?


推荐阅读