芝加哥大学的一组研究人员发现,语音复制算法可以欺骗语音识别设备和听他们说话的人。 科学家们测试了两个最著名的 deepfake 模型——SV2TTS 和 AutoVC。 他们从公开来源收集了长达 5 分钟的 90 个语音块的数据集。 科学家们还招募了 14 名志愿者来提供语音样本并访问他们的设备。 研究人员随后使用开源 Resemblyzer 软件测试了这两个系统,该软件比较了录音并评估了样本的相似性。 他们还进行了一项实验,尝试使用合成语音样本访问语音识别设备。 研究人员发现,这些算法在近一半的时间里都能够胜过 Resemblyzer。 他们还发现,deepfakes 能够在大约 30% 的时间内欺骗 Microsoft Azure 语音识别服务,而在 62% 的时间内欺骗亚马逊 Alexa。 200 名志愿者还听了成对的录音,并试图确定选票是否属于同一个人。 在大多数情况下,算法设法欺骗了测试对象,尤其是当样本是名人的时候。 据研究人员称,语音模拟工具可以在各种环境中造成严重破坏:
科学家们补充说,语音深度伪造也可以直接攻击最终用户,用熟悉的人声补充传统的网络钓鱼诈骗。 提醒一下,在 9 月,诈骗者使用 Oleg Tinkov 的 deepfake 为虚假的 Tinkoff Investments 网站做广告。 9 月中旬,科学家们讲述了如何区分假照片和真照片。 今年 4 月,一位专家表示,互联网上的 Deepfake 数量每六个月翻一番。 今年 3 月,美国警方逮捕了一名使用生成的照片欺负青少年的妇女。 在 Telegram 上订阅 ForkLog 新闻:ForkLog AI – 来自 AI 世界的所有新闻! —- 原文链接:https://forklog.com/issledovanie-golosovye-dipfejki-nauchilis-obmanyvat-ustrojstva-raspoznavaniya-rechi/ 原文作者:Богдан Каминский 编译者/作者:wanbizu AI 玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。 |
研究:语音 Deepfakes 已经学会欺骗语音识别设备
2021-10-14 wanbizu AI 来源:区块链网络
LOADING...
相关阅读:
- 据研究人员称,可以通过区块链延长寿命2021-10-03
- 退出、语音和比特币2021-10-03
- 安全研究人员质疑DAO Maker官方回应被攻击声明,称审计内容针对不相关2021-09-04
- 以太坊通货膨胀率正在下降——根据区块链研究人员的说法,这就是原2021-08-28
- 电梯将柯基犬与踏板车混淆,该算法获得了申请专利和其他来自 AI 世界2021-08-08