OpenAI запустила баунти-программу с вознаграждением до $20 000

Компания OpenAI объявила о запуске программы вознаграждения за обнаружение ошибок в ее системах, чтобы помочь устранить растущие риски кибербезопасности.

Проект создан в партнерстве с краудсорсинговой платформой Bugcrowd. Независимые исследователи могут сообщить об уязвимостях в системах OpenAI в обмен на финансовое вознаграждение в размере от $200 до $20 000.

В компании заявили, что программа является частью ее «приверженности разработке безопасного и продвинутого ИИ».

Однако разработчики перечислили ряд угроз, обнаружение которых не вознаграждается. На официальной странице программы отмечается:

«Проблемы, связанные с содержанием подсказок и ответов модели, строго выходят за рамки и не будут вознаграждаться, если они не окажут дополнительного непосредственно проверяемого воздействия на безопасность в рамках службы».

К выходящим за рамки программы проблемы включают:

  • джейлбрейки и обходы безопасности;
  • принуждение модели «говорить плохие вещи»;
  • генерирование вредоносного кода.

Некоторые эксперты заявили, что инициатива вряд ли полностью устранит широкий спектр рисков кибербезопасности. Скорее программа поможет OpenAI снизить количество внутренних проблем безопасности, считают они.

Напомним, в марте власти Италии распорядились заблокировать ChatGPT из-за «незаконного сбора личных данных».

Вслед за ними внедрение ограничительных мер против чат-бота допустили и другие европейские регуляторы.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Discord Instagram
Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

*Ежедневная рассылка — краткая сводка наиболее важных новостей предыдущего дня. Чтение занимает не больше двух минут. Выходит в рабочие дни в 06:00 (UTC)
*Еженедельная рассылка — объясняем, кто и как изменил индустрию за неделю. Идеально подходит для тех, кто не успевает за новостным потоком в течение дня. Выходит в пятницу в 16:00 (UTC).

Мы используем файлы cookie для улучшения качества работы.

Пользуясь сайтом, вы соглашаетесь с Политикой приватности.

OK
Exit mobile version