Новости Исследование: голосовые дипфейки научились обманывать устройства распознавания речи

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 14 Октябрь 2021.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    33,681
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Группа исследователей из Чикагского университета обнаружила, что алгоритмы копирования голоса способны обмануть как устройства распознавания речи, так и людей, которые их слушают.

    Ученые протестировали две самые известные дипфейк-модели — SV2TTS и AutoVC. Они собрали набор данных из 90 голосовых фрагментов длительностью до пяти минут из общедоступных источников. Ученые также привлекли 14 волонтеров, предоставивших образцы речи и доступ к своим устройствам.

    Затем исследователи протестировали обе системы, используя программное обеспечение с открытым исходным кодом Resemblyzer, — оно сравнивает записи голоса и дает оценку схожести образцов. Они также провели эксперимент, в ходе которого попытались получить доступ к устройствам, с функцией распознавания голоса, с помощью синтезированных образцов речи.

    Исследователи обнаружили, что алгоритмы смогли обхитрить Resemblyzer почти в половине случаев. Они также выяснили, что дипфейки способны обмануть службу распознавания голоса Microsoft Azure примерно в 30% случаев, а помощника Amazon Alexa — в 62% случаев.

    200 добровольцев также прослушали пары записей и попытались определить, принадлежат ли голоса одному и тому же человеку. В большинстве случаев алгоритмам удалось обмануть подопытных, особенно когда образцы относились к известным людям.

    По словам исследователей, инструменты имитирования голоса могут нанести серьезный ущерб в различных условиях:


    «Они могут обойти голосовые системы аутентификации, автоматические телефонные линии в банках, службы входа в мессенджеры, такие как WeChat. Это также приведет ко взлому служб, предоставляющих доступ к устройствам Интернета вещей, например цифровых помощников Amazon Alexa или Google Home».

    Ученые добавили, что голосовые дипфейки также могут напрямую атаковать конечных пользователей, дополняя традиционные фишинговые мошенничества знакомым человеческим голосом.

    Напомним, в сентябре мошенники использовали дипфейк Олега Тинькова для рекламы поддельного сайта «Тинькофф Инвестиции».

    В середине сентября ученые рассказали, как отличить подделку от реального фото.

    В апреле эксперт заявил, что количество дипфейков в интернете удваивается раз в шесть месяцев.

    В марте американская полиция арестовала женщину за травлю подростков с помощью сгенерированных фото.


    Новость Исследование: голосовые дипфейки научились обманывать устройства распознавания речи на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама
Похожие темы:
  1. klonik
    Ответов:
    0
    Просмотров:
    368
  2. CoinProject.info
    Ответов:
    0
    Просмотров:
    214
  3. CoinProject.info
    Ответов:
    0
    Просмотров:
    207
  4. CoinProject.info
    Ответов:
    0
    Просмотров:
    143
  5. Barbara
    Ответов:
    2
    Просмотров:
    99
Загрузка...