Алгоритмы Facebook обвинили в «содействии» геноциду рохинджа в Мьянме

Facebook_targeted-min
Facebook_targeted-min

В 2017 году алгоритмы формирования контента Facebook «напрямую способствовали убийствам и другим зверствам», совершенным военными Мьянмы в отношении мусульманского меньшинства рохинджа. Об этом говорится в расследовании международной организации Amnesty International.

В 74-страничном отчете правозащитники привели перечень нарушений прав рохинджа за последние пять лет на фоне систематических преследований и апартеида. С 2017 года геноцид унес жизни более 25 000 человек.

По данным организации, Meta «существенно поспособствовала» этнической чистке в Мьянме, наживаясь на разногласиях и ненависти.

«Массовое распространение сообщений, подстрекающих к жестокости и ограничению прав рохинджа, а также другого антигуманного контента, подлило масла в огонь давней дискриминации и существенно увеличило риск вспышки насилия», — говорится в отчете.

В конце 2016 года Вооруженные силы Мьянмы начали серию репрессий в Ракхайне, где большая часть населения рохинджа жила в переполненных гетто. Были задокументированы многочисленные нарушения прав человека — избиения, убийства, изнасилования, произвольные аресты и принуждения к рабству.

Также спутники зафиксировали кадры, где военные сжигают тысячи домов. Зверства, многие из которых совершали радикальные буддийские националисты, обострились в начале 2017 года и вызвали волну контратак повстанцев.

Тогда Вооруженные силы страны начали так называемую «операцию по очистке» — кампанию геноцида, которая включала использование артиллерийского оружия, боевых вертолетов и противопехотных мин.

Согласно отчету, социальные сети вроде Facebook помогали экстремистским националистам преследовать и дегуманизировать рохинджа за счет распространения огромного потока контента.

«Раньше общественность следовала за своими религиозными лидерами, и когда те вместе с правительством начали делиться ненавистническими высказываниями на платформе, сознание людей изменилось», — цитирует Amnesty International школьного учителя рохинджа Мохамеда Аяса.

По словам генерального секретаря правозащитной организации Аньес Калламар, еще до «обострения злодеяний» алгоритмы Facebook разжигали злобу к меньшинствам, что способствовало насилию в реальном мире. Пока военные Мьянмы совершали преступления против человечности, Meta извлекала выгоду из эхо-камеры ненависти, созданной ее токсичными алгоритмами, добавила она.

Калламар также заявила, что компанию необходимо привлечь к ответственности и заставить возместить ущерб всем тем, кто пострадал от последствий ее безрассудных действий.

В качестве одного из «бесчисленного множества» примеров по дегуманизации рохинджа алгоритмами соцсети Amnesty International выделила случай с постом Мин Аун Хлайна. В сентябре 2017 года военачальник заявил в Facebook, что «в Мьянме абсолютно нет расы рохинджа».  

Техгигант заблокировал его аккаунт только через год.

Директор по государственной политике для развивающихся рынков Meta в АТР Рафаэль Франкель заявил, что компания поддерживает усилия по привлечению военных к ответственности за их преступления против рохинджа.

«С этой целью мы добровольно и законно предоставили данные Следственному механизму ООН по Мьянме и Гамбии, а также в настоящее время участвуем в процессе подачи жалоб в ОЭСР», — сказал он.

Напомним, в ноябре 2021 года израильская армия развернула обширную систему распознавания лиц для отслеживания палестинцев на Западном берегу реки Иордан.

В декабре 2020 года компания Alibaba признала, что разработала ИИ-технологию для выявления уйгурского меньшинства в Китае.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK