Генеральный директор OpenAI Сэм Альтман признал, что сделка компании с Министерством обороны США была «определённо поспешной», и её восприятие общественностью «выглядит не лучшим образом». Это заявление прозвучало после того, как переговоры другой крупной ИИ-компании, Anthropic, с Пентагоном сорвались.
В ответ на возникшие вопросы и критику OpenAI опубликовала разъясняющий пост в блоге, где обозначила три ключевых сферы, в которых использование её моделей запрещено:
- Массовая внутренняя слежка.
- Автономные системы вооружений.
- Автоматизированные решения с высокими ставками (например, системы типа «социального кредита»).
Компания подчеркнула, что её подход к безопасности в рамках соглашения является «более широким и многоуровневым» по сравнению с другими игроками рынка, которые полагаются в основном на политики использования. OpenAI сохраняет полный контроль над своей системой безопасности, развёртывает модели через облачный API, держит своих проверенных сотрудников в контуре принятия решений и имеет сильные договорные гарантии.
Несмотря на это, некоторые эксперты, например, из Techdirt, выразили сомнения, указав, что формулировки в контракте всё же могут допускать определённые формы слежки за гражданами. Представители OpenAI парировали, что архитектура развёртывания (ограничение облачным API) важнее формулировок в контракте и не позволяет напрямую интегрировать модели в системы вооружения или аппаратное обеспечение для слежки.
Сэм Альтман на платформе X объяснил мотивы компании: стремление деэскалировать ситуацию между индустрией ИИ и государственными структурами. Он признал, что сделка привела к значительной негативной реакции и даже потере позиций ChatGPT в магазине приложений Apple в пользу Claude от Anthropic. Однако в OpenAI считают, что если соглашение поможет снизить напряжённость, компания будет выглядеть как дальновидный игрок, взявший на себя риски ради всей отрасли.