OpenAI предупредила об использовании ИИ дезинформаторами

Компания OpenAI предупредила о растущей угрозе использования технологий искусственного интеллекта в распространении дезинформации.

Стартап провел совместное исследование с Центром безопасности и новых технологий Джорджтаунского университета (CSET) и Стэнфордской интернет-обсерваторией.

По мнению ученых, широкая доступность языковых моделей повлияет на все три аспекта операций влияния:

  • акторы;
  • поведения;
  • контент.

Исследователи считают, что языковые модели снизят стоимость проведения кампаний по дезинформации, сделав их доступными для более широкого круга участников. Кроме того, они способны изобретать новые тактики вроде создания контента в реальном времени в чат-ботах.

Инструменты на основе языковых моделей также помогут генерировать более убедительные тексты по сравнению с традиционными методами.

«Это особенно касается тех [агитаторов], у которых нет нужных лингвистических навыков или культурных знаний о цели. Это может сделать операции влияния менее заметными, поскольку сгенерированный контент будет не так легко распознаваем», — говорится в исследовании.

По мнению ученых, закрытость языковых моделей не поможет уберечься от дезинформации. Агитаторы, вероятно, будут тяготеть к системам с открытым исходным кодом или разработанным государством альтернативам, добавили они.

В исследовании подчеркиваются критические неизвестные факторы, связанные с использованием языковых моделей. На сегодня неясно, какие возможности для дезинформации появятся в будущем даже с учетом текущих исследований и финансовых вложений в технологии.

Кроме того, неизвестно количество инвестиций в языковые модели, а также когда станут широко доступны простые в использовании инструменты для создания и распространения такого контента.

Для предотвращения неправомерного использования подобных технологий в будущем исследователи призвали разработать соответствующие меры.

«Крайне важно проанализировать угрозу операций влияния с помощью ИИ и наметить ряд действий, прежде чем языковые модели будут использоваться для масштабных операций влияния», — заявила группа.

Ученые предложили разработчикам искусственного интеллекта создавать более чувствительные к фактам модели или налагать более строгие ограничения на использование.

Платформам и поставщикам ИИ исследователи рекомендуют координировать свои действия для выявления автоматизированного контента, а учреждениям — участвовать в кампаниях по повышению медиаграмотности.

Также они предполагают, что правительства могут налагать ограничения на сбор данных и контролировать доступ к оборудованию для обучения алгоритмов.

Исследователи рекомендуют широко применять стандарты цифрового происхождения для отслеживания источника ИИ-контента. В этом могут помочь блокчейн и цифровые идентификаторы, заключили они.

Напомним, в декабре 2022 года OpenAI представила чат-бота ChatGPT, основанного на языковой модели.

В том же месяце преподаватель американского университета уличил студентку в использовании инструмента для написания эссе.

В январе 2023 года нью-йоркские школы запретили ChatGPT на оборудовании учреждений. Аналогичные меры предприняли крупнейшие университеты Австралии.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version