ИИ научили выявлять гендерные стереотипы в фильмах

Ученые разработали модель машинного обучения для автоматического распознавания действий различных персонажей в кинофильмах. Об этом говорится в исследовании Университета Южной Калифорнии.

Для определения действий персонажей модель анализирует сценарии к фильмам. Для этого ученые собрали набор данных, состоящий из 1,2 млн описаний сцен из 912 кинокартин, вышедших с 1909 по 2013 год.

Всего алгоритм идентифицировал 50 000 действий, выполняемых 20 000 персонажей.

ИИ научили выявлять гендерные стереотипы в фильмах
Процесс разработки алгоритма распознавания действий персонажей в фильмах. Данные: Виктор Мартинес/Университет Южной Калифорнии.

Затем исследователи провели статистический анализ, чтобы определить наличие различий между типами действий, совершаемых персонажами разного пола. Благодаря этому им удалось выявить известные гендерные стереотипы.

«Собрав 1,2 млн описаний сцен из 912 сценариев, мы смогли изучить систематические гендерные различия в изображениях фильмов в больших масштабах», — говорится в работе.

Согласно исследованию, персонажи-женщины чаще проявляют привязанность и обладают меньшей степенью свободы действий, чем персонажи-мужчины. Также они с высокой вероятностью будут подвергаться «наблюдению» со стороны других участников сцены, что подчеркивает акцент на их внешность.

Мужские персонажи в свою очередь с меньшей вероятностью будут «плакать».

По словам исследователей, способность модели улавливать контекст и нюансы сцены в рамках общего повествования ограничены. Однако их результаты согласуются с предыдущими работами о гендерных стереотипах в популярных СМИ.

Они считают, что их исследование может помочь повысить осведомленность о том, как массмедиа увековечивают вредные стереотипы и тем самым влияют на убеждения и действия людей в реальной жизни.

Также ученые отметили, что модель идентифицирует предвзятость только в диалогах.

«Эти методы не учитывают вредные стереотипы, передаваемые через действия персонажей», — написали они.

В будущем ученые планируют улучшить модель и включить восприятие таких понятий интерсекциональности, как пол, возраст и раса, для более глубокого понимания этой проблемы.

Напомним, в августе 2021 года алгоритм обрезки фотографий Twitter обвинили в предвзятости к стройным девушкам.

В октябре 2022 года исследователи выяснили, что рекламные инструменты Facebook используют распознавание расы, пола и возраста для целевой доставки спонсируемых сообщений.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK