Новости Ученые зафиксировали рост доверия пользователей к ИИ-модераторам

Тема в разделе "Новости криптовалют", создана пользователем CoinProject.info, 19 Сентябрь 2022.

Реклама
  1. CoinProject.info

    CoinProject.info Топ Мастер ПРЕМИУМ

    Сообщения:
    33,694
    Симпатии:
    41
    Пол:
    Мужской
    Сайт:
    Пользователи социальных сетей доверяют ИИ-модерации вредоносного и ненавистнического контента так же, как и людям. Об этом говорится в исследовании Университета штата Пенсильвания.

    В эксперименте приняли участие 676 человек. Их разделили на 18 групп, предназначенных для проверки влияния источников модерации на доверие пользователей.

    По словам ученых, когда участники думали о качествах машин вроде точности и объективности, они больше верили в ИИ. Однако если им напоминали о неспособности алгоритмов принимать субъективные решения, их доверие снижалось.

    Исследователи считают, что полученные данные помогут разработчикам создать совершенные ИИ-системы модерации контента, способные анализировать большие объемы информации. При этом важно обеспечить уверенность в отсутствии цензуры и достоверной классификации, добавили они.

    Ученые также оценили плюсы и минусы ручной и автоматизированной модерации. По словам доцента кафедры рекламы и связей с общественностью Университета штата Мичиган Марии Молины, люди склонны более точно распознавать вредоносный контент. При этом они не в состоянии обрабатывать большие объемы информации.

    С другой стороны, ИИ-редакторы могут быстро анализировать контент. Однако люди часто не доверяют этим алгоритмам и опасаются цензуры.


    «Когда мы думаем об автоматизированной модерации контента, возникает вопрос, не нарушают ли редакторы с искусственным интеллектом свободу выражения мнений», — сказала Молина.

    Ученая считает, что объединение человеческого ресурса и искусственного интеллекта позволит сохранить баланс доверия. По ее словам, прозрачность — один из ключевых элементов в процессе модерации.

    Также доверие к автоматизированным системам может повысить предоставление пользователям возможности помочь ИИ решить, является ли информация вредной.

    По словам исследователей, освобождение модераторов от просмотра тысяч жестоких и оскорбительных материалов способно улучшить их ментальное здоровье.


    «Необходимо защитить оценщиков […] от постоянного воздействия вредоносного контента изо дня в день», — сказал один из авторов исследования Шиям Сундар.

    В будущих работах ученые постараются не только оценить степень доверия людей к ИИ-модераторам, но и попытаться объяснить, как они работают.

    Напомним, в августе Oracle запустила проверку алгоритмов и моделей модерации контента в TikTok.

    В июне более 30 технологических присоединились к инициативе ЕС по борьбе с дезинформацией.


    Новость Ученые зафиксировали рост доверия пользователей к ИИ-модераторам на сайте CoinProject.info.
     

    Понравился пост? Поделись с друзьями!

Реклама
Похожие темы:
  1. CoinProject.info
    Ответов:
    0
    Просмотров:
    350
  2. CoinProject.info
    Ответов:
    0
    Просмотров:
    155
  3. CoinProject.info
    Ответов:
    0
    Просмотров:
    115
  4. CoinProject.info
    Ответов:
    0
    Просмотров:
    97
  5. CoinProject.info
    Ответов:
    0
    Просмотров:
    17
Загрузка...