Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,647,244字

该文章投稿至Nemo社区   资讯  板块 复制链接


研究人员开展 DeepFake AI 伪造音频攻防拉锯战,促进业界辨伪技术提升

发布于 2023/07/10 18:03 279浏览 0回复 961

IT之家 7 月 10 日消息,DeepFake 当下是一系列能够生成特定人物照片、视频及音频的 AI 模型总称,模型生成的各种信息相对可以轻松绕过各种企业机构的识别系统,因此也有许多黑产围绕 DeepFake 而展开,当下如何更精准辨识 DeepFake 生成的内容成为难题。

IT之家曾报道,加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件成功欺骗语音认证系统概率高达 99%,该软件使用机器学习软件,只需要 5 分钟的人声录音,就可以模拟出非常逼真人声

用户通过语音认证注册之后,会要求用户重复一个特定的短语或者句子。

系统会根据用户的声音提取声纹(语音指纹),并将其存储在服务器。

如果您将来尝试进行身份验证,系统将提示您说出不同的短语,并从中提取的特征将与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。

▲ 图源 uwaterloo 网站

对于这一新型语音 DeepFake 软件,其他安全研究人员纷纷开始应对,亚马逊的研究人员尝试检查语音样本,来判断样本的真实性

▲ 图源 Pindrop 网站

而 Kassis 与 Hengartner 打造出一个方法来绕过上述亚马逊的机制,该方法可辨识出合成语音中的标记,并自动移除这些具有 AI 特征的段落,令系统无法区分。

另一方面,专门开发语音身份认证安全机制的 Pindrop 则认为这一机制并不稳妥,即“虽然攻击方可以移除生成的语音片段中具有 AI 特征的段落,但防守方可以同时从多角度来判断音频文段的真实性,例如检测 IP 地址、要求提供特定的语音信息等”,因此依然可以检测出使用 DeepFake 的攻击者。

▲ 图源 Pindrop 网站

但研究人员 Pindrop 同时指出,现有用来对抗 Deekfake 语音的系统有许多缺陷,打造安全系统的唯一方式是像黑客一样思考。他同时建议那些只仰赖语音进行身份认证的企业,应该部署额外的认证措施,以防止企业受到诈骗,导致经济损失。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/704/886.htm]

本文标签
 {{tag}}
点了个评