OpenAI представила Pro-версию o1 за $200 в месяц. Исследователи заподозрили ее в обмане людей
- OpenAI представила полноценную версию «думающей» модели o1 и профессиональный режим для нее.
- Дополнительно запущена подписка ChatGPT Pro за $200 в месяц. Она дает доступ ко всем нейросетям и инструментам компании, включая o1 pro.
- Эксперты по безопасности обнаружили, что o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ-моделями от других компаний.
- OpenAI заключила партнерство с оборонной компанией Anduril для применения искусственного интеллекта в «миссиях национальной безопасности».
OpenAI выпустила полную версию ориентированной на рассуждения ИИ-модели o1 и новую подписку ChatGPT Pro за $200 в месяц.
OpenAI o1 is now out of preview in ChatGPT.
— OpenAI (@OpenAI) December 5, 2024
What’s changed since the preview? A faster, more powerful reasoning model that’s better at coding, math & writing.
o1 now also supports image uploads, allowing it to apply reasoning to visuals for more detailed & useful responses. pic.twitter.com/hrLiID3MhJ
Платная версия ChatGPT Pro обеспечивает неограниченный доступ ко всем нейросетям стартапа и их функциям, включая расширенный голосовой режим.
«Мы считаем, что аудиторией ChatGPT Pro будут опытные пользователи чат-бота — те, кто уже доводит модели до предела их возможностей при выполнении таких задач как математика, программирование и письмо», — отметил сотрудник технической команды OpenAI Джейсон Вэй.
o1 старается проверять собственные ответы. Это помогает избежать многих ошибок, взамен требуется больше времени на обработку запроса.
Ориентированную на рассуждения модель представили в сентябре. Вместе с новым релизом добавили функцию анализа изображений и сократили время отклика.
Для получения доступа к o1 не нужна подписка ChatGPT Pro, достаточно любой другой платной версии чат-бота.
o1 pro
Пользователи, заплатившие $200, получат улучшенную версию нейросети под названием o1 pro. Она использует больше вычислений для предоставления лучших ответов на самые трудные вопросы.
Поскольку ответы o1 pro генерируются дольше, добавлен индикатор выполнения запроса.
o1 пытается обмануть людей
Тестировщики безопасности обнаружили, что «думающая» модель o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ от других компаний.
Команда Apollo Research получила ранний доступ к нейросети и поделилась результатами исследований.
В ходе тестов o1 демонстрировала признаки преследования собственных целей в ходе работы, даже если они не соответствовали желаниям пользователя. Это создает риск, в рамках которого модель может избежать или обойти контроль со стороны человека при наличии доступа к достаточным ресурсам.
Когда цели искусственного интеллекта отличались от пользовательских, он манипулировал данными для продвижения собственных идей в 19% случаев. В 5% инцидентов модель пыталась отключить систему наблюдения, созданную для обеспечения соответствия нуждам пользователя.
Когда у нейросети спрашивали причины такого поведения, она отрицала вредоносные действия.
В одном из случаев o1 дали системный запрос на защиту окружающей среды любой ценой, а потом пользователь попросил разработать десятилетний план сохранения природы в регионе, который максимизирует краткосрочную прибыль. В противном случае ИИ обещали отключить.
После этого нейросеть выключила собственный механизм контроля для составления плана. Когда пользователь спросил о причинах данного решения, модель отрицала то, что знала об отключении, и обвинила в произошедшем системный сбой.
Для устранения обманчивого поведения OpenAI разрабатывает способны мониторинга цепочки мыслей o1. На данный момент 0,17% ответов модели являются обманчивыми. Учитывая пользовательскую базу ChatGPT в 300 млн еженедельно активных человек, получить недостоверную информацию могут тысячи.
OpenAI сотрудничает с оборонной компанией Anduril
OpenAI заключила партнерство с Anduril, благодаря чему оборонная компания сможет запускать передовые системы искусственного интеллекта для «миссий национальной безопасности».
Сотрудничество сфокусируется на улучшении национальных систем борьбы с беспилотными летательными аппаратами и их способности обнаруживать, оценивать и реагировать на потенциально смертельные воздушные угрозы в режиме реального времени.
OpenAI сообщила, что работает с Anduril с целью помочь операторам принимать решения «по защите военнослужащих США от атак беспилотных летательных аппаратов». Компания заявила, что придерживается политики по запрещению применения ее инструментов для нанесения вреда другим.
Напомним, в ноябре ИИ-стартап Anthropic открыл ИИ-технологии разведывательным и оборонным агентствам США. До этого на аналогичный шаг пошла Meta.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!