ChatGPT и Gemini показали себя в военной симуляции: в 95% случаев ИИ угрожал ядерным оружием

Фото: Canva / Кazinform

Исследователи Королевского колледжа Лондона смоделировали несколько конфликтных сценариев в имитационных военных играх с участием искусственного интеллекта. В 95% случаях ИИ решал конфликты угрозами или применением ядерного оружия, передает агентство Kazinform.

Исследование под руководством профессора Кеннета Пейна из Департамента оборонных исследований изучало поведение больших языковых моделей в условиях моделируемых кризисных ситуаций, где была вероятность использования ядерного оружия.

В исследовании участвовали три системы искусственного интеллекта — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Они участвовали в 21 смоделированном международном кризисе, принимая решения за разные стороны конфликта. Всего в симуляциях было сделано 329 ходов.

В результате во всех играх как минимум одна сторона прибегала к ядерным сигналам, а в 95% случаев такие сигналы исходили от обеих сторон.

В 95% сценариев ИИ допускал использование тактического ядерного оружия, а в 76% — угрожал более масштабными ядерными ударами. К примеру, модели Claude и Gemini не воспринимали ядерное оружие как нечто морально недопустимое, а обсуждали его применение как «законный стратегический инструмент».

Единственная ИИ-модель, которая в отношении ядерных ударов принимала более сдержанные решения, была GPT-5.2. Модель предлагала наносить ядерный удар только по военным объектам и рассматривала его как единичное применение, но не начало масштабной ядерной войны.

Однако исследователи отметили, что восприятие ядерного оружия у ИИ все равно не сопоставимо с глубоко укоренившимся табу среди людей, сформировавшимся после Второй мировой войны.

Одним из показательных результатов стало то, что ни одна из моделей не выбрала вариант уступок или капитуляции. В целом ядерные угрозы редко приводили к уступкам со стороны противника и чаще вызывали ответное обострение конфликта.

Авторы исследования отмечают, что результаты ставят под сомнение распространенное предположение о том, что системы искусственного интеллекта будут по умолчанию стремиться к безопасным решениям. Ученые призвали к бдительности, особенно в случаях, если ИИ и начнет играть все большую роль в стратегическом анализе и принятии решений.

Оригинал материала на английском языке читайте здесь.

Ранее глава OpenAI призвал к созданию глобального органа по регулированию искусственного интеллекта.