
СМИ узнали о переговорах Google с Пентагоном по интеграции Gemini
Корпорация Google обсуждает с Министерством обороны США возможность интеграции Gemini в системы Пентагона во всех категориях доступа к информации — от открытых до строго засекреченных. Об этом пишет The Information со ссылкой на источники.
Соглашение позволит Минобороны использовать разработку Google «для всех законных целей».
В ходе переговоров корпорация предложила внести дополнительные положения, которые исключили бы применение Gemini для массовой слежки за гражданами или создания автономного оружия.
Представитель Пентагона отказался напрямую комментировать диалог с Google. Однако он подчеркнул, что ведомство планирует и дальше внедрять передовые ИИ-технологии через тесное сотрудничество с частным сектором на всех уровнях секретности.
Google подписала соглашение с Министерством обороны США. Оно позволяет Пентагону использовать ИИ «для любых законных государственных целей», пишет The Information со ссылкой на источник.
Корпорация присоединилась к OpenAI и xAI, которые также предоставляют свои технологии для применения в секретных средах.
Соглашение с Google обзывает компанию оказывать помощь в настройке параметров безопасности и фильтров ИИ по запросу правительства. В контракте содержится формулировка, которая гласит следующее:
«Стороны согласны с тем, что ИИ-система не предназначена и не должна использоваться для массовой слежки внутри страны или автономного оружия (включая выбор целей) без надлежащего надзора и контроля со стороны человека».
Однако соглашение «не предоставляет никаких прав на контроль или вето в отношении законных оперативных решений правительства».
Google пошла на сделку вопреки желанию сотрудников. 27 апреля более 600 человек направили письмо CEO компании Сундару Пичаи с требованием запретить Пентагону использовать ИИ для работы в секретной среде.
Скандал с Anthropic
Недавний конфликт между Пентагоном и ИИ-стартапом Anthropic возник на почве этических границ применения моделей. Он перерос в судебное разбирательство и запрет со стороны президента США Дональда Трампа на использование технологий компании во всех федеральных ведомствах.
Предпосылки для этого возникли в июле 2025 года. Тогда Министерство обороны США заключило контракты на сумму до $200 млн с Anthropic, Google, OpenAI и xAI на разработку ИИ-решений в сфере безопасности. Главное управление цифровых и ИИ-технологий ведомства планировало использовать их решения для создания агентных систем. Из всех подрядчиков только инструменты Anthropic интегрировали в секретные среды благодаря их высокому качеству.
Однако уже в январе 2026 года WSJ сообщила о риске разрыва соглашения. Разногласия возникли из-за жесткой этической политики стартапа: правила Anthropic запрещают применять модель Claude для массовой слежки и в автономных летальных операциях.
Недовольство чиновников усилилось на фоне интеграции чат-бота Grok в сеть Пентагона. Министр обороны Пит Хегсет, комментируя партнерство с xAI, подчеркнул, что ведомство «не будет использовать модели, которые не позволяют вести войны».
Ситуация обострилась в феврале 2026 года, когда армия США задействовала Claude в операции по захвату президента Венесуэлы Николаса Мадуро.
CEO стартапа Дарио Амодей заявил, что Anthropic предпочтет не сотрудничать с Пентагоном, чем согласится на использование своих технологий способом, который может «подорвать, а не защитить демократические ценности». Он подтвердил, что проблема заключается в потенциальном применении инструментов вроде Claude в двух целях: «массовая слежка внутри страны» и «полностью автономное оружие».
Принципиальная позиция Anthropic привела к росту популярности продуктов стартапа — пользователи оценили готовность разработчиков отстаивать их интересы.
В то же время OpenAI столкнулась с критикой за свое соглашение с Министерством обороны. Впоследствии Сэм Альтман назвал решение поспешным.
Возврат к истокам
Текущие переговоры Google и Пентагоном напоминают о событиях 2018 года. Тогда корпорация свернула свое участие в Project Maven — программе, в рамках которой искусственный интеллект применялся для анализа видеозаписей с дронов.
Компания отказалась от проекта из-за резкого недовольства сотрудников. Более 3000 человек подписали открытое письмо к руководству с требованием прекратить разработку ИИ для боевых беспилотников. Этот инцидент спровоцировал широкую дискуссию в технологической отрасли о допустимости использования алгоритмов в военных целях.
С тех пор Google планомерно восстанавливала отношения с правительством. В 2022 году компания создала специальное подразделение по работе с государственным сектором.
В 2024 году фирма подписала соглашение о сотрудничестве в области ИИ с Минобороны. Оно ограничивалось применением технологии в несекретной части.
В начале 2025 года Google удалила из своих внутренних принципов ИИ пункт, который прямо запрещал использование технологии в «оружии и системах наблюдения».
Потенциальное подписание контракта, допускающего работу в секретных средах, означает выход за пределы обычного «сотрудничества». Подобный шаг указывает на готовность к полномасштабной интеграции технологий компании в ключевые оборонные операции.
Сотрудники против
Участие Google в оборонных контрактах продолжает вызывать внутреннее недовольство.
В 2018 году компания пообещала никогда не работать над военными технологиями. Однако в апреле 2024 года стало известно о предоставлении услуг облачных вычислений и доступа к службам ИИ Министерству обороны Израиля.
На фоне этого около 200 сотрудников DeepMind, профильного ИИ-подразделения Google, выразили официальный протест. Они призвали расторгнуть соглашения с оборонными ведомствами. Авторы инициативы опасаются, что передовые разработки лаборатории передаются армиям, ведущим реальные боевые действия.
«Любое участие в военном и оружейном производстве негативно сказывается на нашей позиции лидера в области этического и ответственного ИИ, а также противоречит нашей миссии и заявленным принципам искусственного интеллекта», — говорится в документе, который собрал подписи около 5% сотрудников.
Пентагон настаивает
В феврале СМИ узнали о том, что Пентагон призывает ведущие компании в сфере ИИ сделать свои инструменты доступными в секретных средах без стандартных ограничений, которые обычно применяются для пользователей.
Такие сети используются для выполнения широкого спектра конфиденциальных задач вроде планирования операций или наведения оружия. Военные хотят использовать способность ИИ синтезировать информацию для содействия принятия решений.
Однако нейросети могут допускать ошибки и придумывать информацию. Применение таких инструментов в боевых условиях чревато фатальными последствиями.
ИИ-компании стремятся минимизировать негативные стороны своих продуктов, но в Пентагоне возмущены такими ограничениями.
Напомним, в Минобороны намерены ускорить принятие решений с помощью искусственного интеллекта и сделать его центральным элементом своей стратегии по объединению сенсоров и ударных систем в боевых операциях.
Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!