Ученые зафиксировали рост доверия пользователей к ИИ-модераторам

Пользователи социальных сетей доверяют ИИ-модерации вредоносного и ненавистнического контента так же, как и людям. Об этом говорится в исследовании Университета штата Пенсильвания.

В эксперименте приняли участие 676 человек. Их разделили на 18 групп, предназначенных для проверки влияния источников модерации на доверие пользователей.

По словам ученых, когда участники думали о качествах машин вроде точности и объективности, они больше верили в ИИ. Однако если им напоминали о неспособности алгоритмов принимать субъективные решения, их доверие снижалось.

Исследователи считают, что полученные данные помогут разработчикам создать совершенные ИИ-системы модерации контента, способные анализировать большие объемы информации. При этом важно обеспечить уверенность в отсутствии цензуры и достоверной классификации, добавили они.

Ученые также оценили плюсы и минусы ручной и автоматизированной модерации. По словам доцента кафедры рекламы и связей с общественностью Университета штата Мичиган Марии Молины, люди склонны более точно распознавать вредоносный контент. При этом они не в состоянии обрабатывать большие объемы информации.

С другой стороны, ИИ-редакторы могут быстро анализировать контент. Однако люди часто не доверяют этим алгоритмам и опасаются цензуры.

«Когда мы думаем об автоматизированной модерации контента, возникает вопрос, не нарушают ли редакторы с искусственным интеллектом свободу выражения мнений», — сказала Молина.

Ученая считает, что объединение человеческого ресурса и искусственного интеллекта позволит сохранить баланс доверия. По ее словам, прозрачность — один из ключевых элементов в процессе модерации.

Также доверие к автоматизированным системам может повысить предоставление пользователям возможности помочь ИИ решить, является ли информация вредной.

По словам исследователей, освобождение модераторов от просмотра тысяч жестоких и оскорбительных материалов способно улучшить их ментальное здоровье.

«Необходимо защитить оценщиков […] от постоянного воздействия вредоносного контента изо дня в день», — сказал один из авторов исследования Шиям Сундар.

В будущих работах ученые постараются не только оценить степень доверия людей к ИИ-модераторам, но и попытаться объяснить, как они работают.

Напомним, в августе Oracle запустила проверку алгоритмов и моделей модерации контента в TikTok.

В июне более 30 технологических присоединились к инициативе ЕС по борьбе с дезинформацией.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version