Новости OpenAI предупредила об использовании ИИ дезинформаторами

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 16 Январь 2023.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    32,706
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Компания OpenAI предупредила о растущей угрозе использования технологий искусственного интеллекта в распространении дезинформации.


    We're publishing a report, co-authored with @CSETGeorgetown and @stanfordio, analyzing how language models could be misused for disinformation and how to mitigate those risks. https://t.co/nHiVp7GoxI

    — OpenAI (@OpenAI) January 11, 2023

    Стартап провел совместное исследование с Центром безопасности и новых технологий Джорджтаунского университета (CSET) и Стэнфордской интернет-обсерваторией.

    По мнению ученых, широкая доступность языковых моделей повлияет на все три аспекта операций влияния:

    • акторы;
    • поведения;
    • контент.

    Исследователи считают, что языковые модели снизят стоимость проведения кампаний по дезинформации, сделав их доступными для более широкого круга участников. Кроме того, они способны изобретать новые тактики вроде создания контента в реальном времени в чат-ботах.

    Инструменты на основе языковых моделей также помогут генерировать более убедительные тексты по сравнению с традиционными методами.


    «Это особенно касается тех [агитаторов], у которых нет нужных лингвистических навыков или культурных знаний о цели. Это может сделать операции влияния менее заметными, поскольку сгенерированный контент будет не так легко распознаваем», — говорится в исследовании.

    По мнению ученых, закрытость языковых моделей не поможет уберечься от дезинформации. Агитаторы, вероятно, будут тяготеть к системам с открытым исходным кодом или разработанным государством альтернативам, добавили они.

    В исследовании подчеркиваются критические неизвестные факторы, связанные с использованием языковых моделей. На сегодня неясно, какие возможности для дезинформации появятся в будущем даже с учетом текущих исследований и финансовых вложений в технологии.

    Кроме того, неизвестно количество инвестиций в языковые модели, а также когда станут широко доступны простые в использовании инструменты для создания и распространения такого контента.

    Для предотвращения неправомерного использования подобных технологий в будущем исследователи призвали разработать соответствующие меры.


    «Крайне важно проанализировать угрозу операций влияния с помощью ИИ и наметить ряд действий, прежде чем языковые модели будут использоваться для масштабных операций влияния», — заявила группа.

    Ученые предложили разработчикам искусственного интеллекта создавать более чувствительные к фактам модели или налагать более строгие ограничения на использование.

    Платформам и поставщикам ИИ исследователи рекомендуют координировать свои действия для выявления автоматизированного контента, а учреждениям — участвовать в кампаниях по повышению медиаграмотности.

    Также они предполагают, что правительства могут налагать ограничения на сбор данных и контролировать доступ к оборудованию для обучения алгоритмов.

    Исследователи рекомендуют широко применять стандарты цифрового происхождения для отслеживания источника ИИ-контента. В этом могут помочь блокчейн и цифровые идентификаторы, заключили они.

    Напомним, в декабре 2022 года OpenAI представила чат-бота ChatGPT, основанного на языковой модели.

    В том же месяце преподаватель американского университета уличил студентку в использовании инструмента для написания эссе.

    В январе 2023 года нью-йоркские школы запретили ChatGPT на оборудовании учреждений. Аналогичные меры предприняли крупнейшие университеты Австралии.


    Новость OpenAI предупредила об использовании ИИ дезинформаторами на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама