WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы

Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети.

Согласно отчету, два года назад Facebook сократила количество времени, в течение которого командам специалистов-рецензентов приходилось сосредотачиваться на жалобах пользователей на разжигание ненависти, и уменьшила общее их количество. Вместо этого компания переключилась на применение ИИ в модерации постов. По словам сотрудников, это способствовало преувеличению успеха технологии в публичной статистике.

Согласно другому документу, в марте 2021 года внутренняя исследовательская группа обнаружила, что автоматизированные системы Facebook удаляли сообщения, которые генерировали от 3% до 5% просмотров разжигающих ненависть высказываний в соцсети. Эти же системы отметили и удалили примерно 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.

Вице-президент по добросовестности Facebook Гай Розен опроверг результаты расследования и заявил, что благодаря алгоритмам распространенность языка вражды в соцсети снизилась на 50% за последние три года.

«Данные из просочившихся документов используются для создания нарратива о том, что используемая нами технология для борьбы с языком ненависти неадекватна и что мы намеренно искажаем наш прогресс. Это неправда», — сказал он.

По словам Розена, компания не приемлет использования платформы для разжигания вражды и прозрачна в своей работе по ее устранению.

«Эти документы демонстрируют, что наша работа по обеспечению добросовестности — многолетний путь. Хотя мы никогда не добьемся совершенства, наши команды постоянно работают над развитием систем, выявлением проблем и поиском решений», — добавил он.

Розен также утверждает, что «неправильно» судить об успехе Facebook в борьбе с разжиганием ненависти, основываясь исключительно на удалении постов. По его словам, снижение видимости этого контента является более важным показателем. За последние три квартала просмотры подобных постов упали до 0,05% или примерно пяти просмотров из каждых 10 000, сказал Розен.

Напомним, в начале октября информатор Facebook на сенатских слушаниях сообщила, что компания использует алгоритмы для разжигания ненависти ради прибыли.

Спустя неделю вице-президент компании по глобальным связям Ник Клегг заявил, что Facebook готова открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version