Новости Мошенничество с использованием ИИ: виды и способы борьбы

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 1 Июль 2024.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    32,712
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Биржи на которых я торгую:


    Искусственный интеллект существенно упрощает рабочие процессы и повышает производительность. Однако он также нередко является инструментом мошенников, поскольку позволяет дешево и качественно создавать аудио, видео, сообщения, дипфейки, пишет TechCrunch.

    Рассказываем о популярных способах обмана с использованием ИИ и вариантами борьбы со злоумышленниками.

    Клонирование голоса членов семьи и друзей


    Синтез речи существует уже несколько десятилетий, но благодаря развитию генеративного искусственного интеллекта мошенники могут создавать фейк всего лишь из нескольких секунд аудио. Голос любого человека, который публично транслировался, например в новостном репортаже или в видео на YouTube, может быть клонирован.

    У мошенников есть возможность генерации убедительных и фальшивых версий друзей или близких потенциальной жертвы. Часто используется просьба о помощи, отмечает издание. Например, родитель может получить голосовое сообщение с неизвестного номера от «сына», который рассказывает о краже вещей во время путешествия и просит отправить деньги.

    В январе неизвестный клонировал голос президент США Джо Байдена и осуществил серию звонков избирателям в Нью-Гемпшире, призвав бойкотировать голосование. В результате Федеральная комиссия по связям предложила назначить штраф $6 млн за фейковые звонки.

    Еще один пример: в США учителя физкультуры обвинили в использовании голосового дипфейка, чтобы подставить директора школы и добиться его увольнения. Однако независимые эксперты установили, что аудио было сфабриковано, поскольку имеет «ровный тон, необычно чистый фон, отсутствие последовательных звуков дыхания или пауз».

    Как бороться с клонированием голоса?


    Технология развилась настолько, что распознать фальшивый голос крайне сложно. Иногда это не под силу даже экспертам.

    Все, что происходит с неизвестного номера, адреса электронной почты или аккаунта, необходимо автоматически считать подозрительным, советует TechCrunch. Если кто-то представляется другом или родственником, стоит связаться с этим человеком по другим каналам связи.

    Персонализированный фишинг и спам по электронной почте


    Искусственный интеллект позволяет генерировать тексты намного быстрее и на разных языках, в том числе адаптированные для конкретного человека. Компания по безопасности SlashNext отметила, что количество фишинговых атак по электронной почте увеличилось на 856% за последний год, а с момента запуска ChatGPT в 2022 году — на 4151%.

    Согласно изданию, особенно опасными являются персонализированные письма. Поскольку утечки личных данных происходят регулярно, большая их часть находится в открытом доступе. Мошенники могут использовать информацию о недавнем местоположении, покупках или привычках, а языковая модель напишет тысячи писем за считанные секунды. Журналисты приводят возможный пример такого сообщения:


    «Привет, Дорис! Я из команды продвижения Etsy. На товар, которым вы недавно интересовались, скидка 50%! А доставка на ваш адрес в Беллингеме будет бесплатной, если вы воспользуетесь этой ссылкой».

    Такое письмо выглядит правдоподобным, а нейросеть может создавать их в больших количествах для разных людей, говорится в статье.

    Как бороться со спамом по электронной почте?


    Не переходить по сомнительным ссылкам и не скачивать странные файлы. Если нет стопроцентной уверенности в подлинности и личности отправителя, лучше письмо или ссылки в нем не открывать.

    Атака с подменой личности


    Используя утечки личных данных, мошенники могут входить в аккаунт на каком-либо ресурсе/бирже. Издание указывает, что нейросеть способна создать поддельную копию личности пользователя и с помощью персональной информации обратиться в службу поддержки с просьбой восстановить аккаунт.

    Как правило, для восстановления доступа требуются такие данные как дата рождения, номер телефона. Иногда требуется сделать селфи, но и такая задача ИИ по силам, подчеркивает TechCrunch.

    Как бороться с мошенничеством подмены личности?


    С помощью многофакторной аутентификации. Любая подозрительная активность по аккаунту будет транслироваться на электронную почту или прямо на телефон.

    Дипфейки и шантаж


    ИИ позволяет наложить лицо любого человека на другое тело и сделать таким образом правдоподобную фотографию (или видео). Этот вид мошенничества используется для шантажа или распространения фейков.

    https://forklog.com/cryptorium/ai/chto-takoe-dipfake

    Например, в январе сотрудник транснациональной компании в Гонконге перевел мошенникам $25 млн после созвона с «коллегами», которые оказались дипфейками. Пострадавший получил приглашение якобы от финансового директора фирмы на онлайн-видеовстречу, где планировалось обсудить некую конфиденциальную сделку.

    Все присутствовавшие на созвоне «руководители компании» были дипфейк-имитацией. Они убедили сотрудника перевести $25,5 млн из средств фирмы на пять банковских счетов.

    Как бороться с дипфейком и шантажом?


    Вместо выполнения требований шантажиста лучше обратиться в полицию и к хостингам с требованием удалить фотографии.

    https://forklog.com/exclusive/ai/fejki-dipfejki-i-chat-boty-kak-raspoznat-ii-manipulyatsii-v-internete

    Напомним, в июне специалисты Elliptic отметили рост использования ИИ в криптопреступлениях.

    В начале июня графический дизайнер Dogecoin под ником DogeDesigner обнаружил на YouTube прямую трансляцию с дипфейком CEO Tesla и SpaceX Илона Маска, продвигающего криптовалютный скам.

    Новость Мошенничество с использованием ИИ: виды и способы борьбы на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама