Новости Аферисты «вооружились» ИИ для имитации голосов родственников своих жертв

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 7 Март 2023.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    33,682
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Мошенники стали чаще применять технологии имитации голоса на базе искусственного интеллекта для шантажа родственников жертв. Об этом пишет Washington Post.

    По данным Федеральной торговой комиссии США (FTC), в 2022 году вымогательство с участием самозванцев стало вторым по распространенности в стране. За указанный период власти получили более 36 000 сообщений о том, что людей обманули мошенники, выдающие себя за друзей и членов семьи.

    Согласно отчету FTC, более 5100 инцидентов произошли по телефону и причинили более $11 млн убытков.

    Достижения в области искусственного интеллекта предоставили мошенникам новые инструменты воспроизведения голоса. Множество дешевых онлайн-сервисов на базе ИИ могут преобразовать короткий аудиофайл в копию голоса, позволяя мошеннику заставить его «произносить» любой текст.

    Эксперты заявили, что регуляторы, правоохранители и суды плохо оснащены средствами предотвращения подобного вида мошенничества. Также большинство жертв не имеет зацепок, позволяющих идентифицировать преступника.

    Полиции, в свою очередь, сложно отследить звонки аферистов, а у судов мало юридических прецедентов для привлечения компаний, создающих подобные ИИ-инструменты.


    «Это ужасно. Это своего рода идеальный шторм… [со] всеми ингредиентами, необходимыми для создания хаоса», — сказал профессор цифровой криминалистики Калифорнийского университета в Беркли Хани Фарид.

    По словам эксперта, искусственный интеллект может анализировать уникальные характеристики голоса, включая возраст, пол и акцент. Также современные технологии способны найти похожую речь в больших базах данных и закономерности.

    Затем ИИ-инструменты воссоздают высоту тона, тембр и отдельные звуки голоса человека, чтобы создать похожий общий эффект. По словам Фарида, для этого требуется короткий образец аудио, взятый из социальных сетей и других публичных площадок в интернете:


    «Год назад вам нужно было много аудио, чтобы клонировать голос человека. […] Теперь достаточно 30 секунд».

    Помощник директора отдела маркетинга FTC Уилл Максон заявил, что отслеживание голосовых мошенников может быть «особенно трудным». Они могут использовать телефон, находящийся в любой точке мира. Это затрудняет даже определение юрисдикции в отношении конкретного лица.

    Максон призвал соблюдать бдительность. По его словам, в случае получения звонка о том, что близкий человек попал в беду и нуждается в деньгах, необходимо перепроверить информацию.

    Напомним, в марте журналист Джозеф Кокс «обманул» голосовой идентификатор банка с помощью бесплатного ИИ-сервиса для синтеза речи.

    В январе стартап ElevenLabs обвинили в распространении расистских аудиодипфейков. Из-за растущего числа злоупотреблений компании пришлось приостановить работу сервиса.

    Новость Аферисты «вооружились» ИИ для имитации голосов родственников своих жертв на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама