Facebook откажется от системы распознавания лиц и удалит связанные с ней данные
Компания Meta объявила о закрытии системы распознавания лиц в Facebook «в ближайшие недели». Соцсеть также удалит индивидуальные шаблоны для биометрической идентификации более чем миллиарда людей.
При публикации новых изображений платформа перестанет предлагать отметить на них того или иного человека. Также соцсеть прекратит присылать уведомления пользователям, когда кто-то опубликует фото или видео с их участием.
В компании приняли такое решение на волне «растущей обеспокоенности» по поводу более широкого использования распознавания лиц, включая отсутствие регулирования этой технологии.
«В условиях продолжающейся неопределенности мы считаем целесообразным ограничить использование распознавания лиц узким набором вариантов применения», — вице-президент компании по искусственному интеллекту Джером Песенти.
По его словам, распознавание лиц все еще может быть полезно в некоторых ситуациях, например при получении доступа к заблокированной учетной записи. Однако в компании посчитали ориентированный на конфиденциальность подход более подходящим, чем «широкая исходящая стратегия».
«Каждая новая технология приносит как пользу, так и обеспокоенность со стороны общественности. Мы постараемся найти нужный баланс», — сказал Песенти.
Изменения коснутся и системы автоматического описания изображений для слабовидящих. Теперь она не будет указывать имена людей, обнаруженных на фотографиях.
Система распознавания лиц в Facebook появилась в 2011 году. С ее помощью соцсеть анализировала изображения и идентифицировала на них людей без их согласия. По словам Песенти, многочисленные жалобы пользователей на это также повлияли на решение компании ограничить использование технологии.
Ранее Facebook провела масштабный ребрендинг, переименовав компанию в Meta. При этом социальная сеть сохранила свое прежнее название. Ребрендинг произошел на фоне скандала, связанного с утечкой внутренней документации компании.
В октябре бывшая сотрудница Facebook Фрэнсис Хауген заявила в американском Сенате, что соцсеть использует алгоритмы для разжигания ненависти ради прибыли.
Спустя неделю вице-президент компании по глобальным связям Ник Клегг сказал, что корпорация готова открыть регуляторам доступ к ИИ-моделям, чтобы доказать их безвредность.
В середине октября выяснилось, что алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!