OpenAI предупредила об использовании ИИ дезинформаторами
Компания OpenAI предупредила о растущей угрозе использования технологий искусственного интеллекта в распространении дезинформации.
We're publishing a report, co-authored with @CSETGeorgetown and @stanfordio, analyzing how language models could be misused for disinformation and how to mitigate those risks. https://t.co/nHiVp7GoxI
— OpenAI (@OpenAI) January 11, 2023
Стартап провел совместное исследование с Центром безопасности и новых технологий Джорджтаунского университета (CSET) и Стэнфордской интернет-обсерваторией.
По мнению ученых, широкая доступность языковых моделей повлияет на все три аспекта операций влияния:
- акторы;
- поведения;
- контент.
Исследователи считают, что языковые модели снизят стоимость проведения кампаний по дезинформации, сделав их доступными для более широкого круга участников. Кроме того, они способны изобретать новые тактики вроде создания контента в реальном времени в чат-ботах.
Инструменты на основе языковых моделей также помогут генерировать более убедительные тексты по сравнению с традиционными методами.
«Это особенно касается тех [агитаторов], у которых нет нужных лингвистических навыков или культурных знаний о цели. Это может сделать операции влияния менее заметными, поскольку сгенерированный контент будет не так легко распознаваем», — говорится в исследовании.
По мнению ученых, закрытость языковых моделей не поможет уберечься от дезинформации. Агитаторы, вероятно, будут тяготеть к системам с открытым исходным кодом или разработанным государством альтернативам, добавили они.
В исследовании подчеркиваются критические неизвестные факторы, связанные с использованием языковых моделей. На сегодня неясно, какие возможности для дезинформации появятся в будущем даже с учетом текущих исследований и финансовых вложений в технологии.
Кроме того, неизвестно количество инвестиций в языковые модели, а также когда станут широко доступны простые в использовании инструменты для создания и распространения такого контента.
Для предотвращения неправомерного использования подобных технологий в будущем исследователи призвали разработать соответствующие меры.
«Крайне важно проанализировать угрозу операций влияния с помощью ИИ и наметить ряд действий, прежде чем языковые модели будут использоваться для масштабных операций влияния», — заявила группа.
Ученые предложили разработчикам искусственного интеллекта создавать более чувствительные к фактам модели или налагать более строгие ограничения на использование.
Платформам и поставщикам ИИ исследователи рекомендуют координировать свои действия для выявления автоматизированного контента, а учреждениям — участвовать в кампаниях по повышению медиаграмотности.
Также они предполагают, что правительства могут налагать ограничения на сбор данных и контролировать доступ к оборудованию для обучения алгоритмов.
Исследователи рекомендуют широко применять стандарты цифрового происхождения для отслеживания источника ИИ-контента. В этом могут помочь блокчейн и цифровые идентификаторы, заключили они.
Напомним, в декабре 2022 года OpenAI представила чат-бота ChatGPT, основанного на языковой модели.
В том же месяце преподаватель американского университета уличил студентку в использовании инструмента для написания эссе.
В январе 2023 года нью-йоркские школы запретили ChatGPT на оборудовании учреждений. Аналогичные меры предприняли крупнейшие университеты Австралии.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!