欢迎光临
我们一直在努力

保护你的声音不被伪造

  自动草稿

  生成式人工智能的最新进展刺激了现实语音合成的发展。虽然这项技术有可能通过个性化语音助手和增强可访问性的通信工具来改善生活,但它也导致了深度伪造的出现,在这种情况下,合成语音可能被滥用来欺骗人类和机器,达到邪恶的目的。

  为了应对这种不断演变的威胁,圣路易斯华盛顿大学麦凯维工程学院(McKelvey School of engineering)计算机科学与工程助理教授张宁(Ning Zhang)开发了一种名为AntiFake的工具,这是一种新颖的防御机制,旨在阻止未经授权的语音合成。11月27日,张在丹麦哥本哈根举行的计算机与通信安全协会会议上展示了AntiFake。

  与传统的深度伪造检测方法(用于评估和发现合成音频作为攻击后缓解工具)不同,AntiFake采取了积极主动的立场。它采用对抗性技术,使人工智能工具更难以从录音中读取必要的特征,从而防止欺骗性语音的合成。代码是免费提供给用户的。

  张说:“反假软件确保当我们把声音数据放到网上时,犯罪分子很难利用这些信息合成我们的声音并冒充我们。”“该工具使用了一种对抗性人工智能技术,这种技术最初是网络罪犯工具箱的一部分,但现在我们正在用它来防御他们。我们只是把录制的音频信号弄乱一点,扭曲或干扰它,使它对人类听众来说仍然是正确的,但这对人工智能来说是完全不同的。”

  为了确保AntiFake能够抵御不断变化的潜在攻击者和未知的合成模型,Zhang和第一作者Zhiyuan Yu (Zhang实验室的研究生)构建了一个一般化的工具,并对五个最先进的语音合成器进行了测试。AntiFake达到了超过95%的保护率,甚至对看不见的商业合成器。他们还让24名参与者测试了AntiFake的可用性,以确认不同人群都能使用该工具。

  目前,AntiFake可以保护简短的语音片段,针对最常见的语音模仿类型。但是,张说,在与虚假信息的持续斗争中,没有什么可以阻止这个工具被扩展到保护更长的录音,甚至是音乐。

  “最终,我们希望能够完全保护录音,”张说。“虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发中——但我确实认为我们利用对手的技术来对付他们的策略将继续有效。人工智能仍然容易受到对抗性扰动的影响,即使工程细节可能需要改变,以保持这一策略的制胜性。”

  更多信息:Zhiyuan Yu等,AntiFake:使用对抗性音频来防止未经授权的语音合成,2023 ACM SIGSAC计算机与通信安全会议论文集(2023)。DOI: 10.1145/3576915.3623209由圣路易斯华盛顿大学提供引文:保护您的声音免受deepfakes(2023, 11月27日)检索自https://techxplore.com/news/2023-11-defending-voice-deepfakes.html。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。

 收藏 (0) 打赏

您可以选择一种方式赞助本站

支付宝扫一扫赞助

微信钱包扫描赞助

除特别注明外,本站所有文章均基于CC-BY-NC-SA 4.0原创,转载请注明出处。
文章名称:《保护你的声音不被伪造》
文章链接:https://www.xpn.cc/40813/fy.html
分享到: 更多 (0)

热门推荐

登录

忘记密码 ?