ChatGPT и Gemini показали себя в военной симуляции: в 95% случаев ИИ угрожал ядерным оружием
Исследователи Королевского колледжа Лондона смоделировали несколько конфликтных сценариев в имитационных военных играх с участием искусственного интеллекта. В 95% случаях ИИ решал конфликты угрозами или применением ядерного оружия, передает агентство Kazinform.
Исследование под руководством профессора Кеннета Пейна из Департамента оборонных исследований изучало поведение больших языковых моделей в условиях моделируемых кризисных ситуаций, где была вероятность использования ядерного оружия.
В исследовании участвовали три системы искусственного интеллекта — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Они участвовали в 21 смоделированном международном кризисе, принимая решения за разные стороны конфликта. Всего в симуляциях было сделано 329 ходов.
В результате во всех играх как минимум одна сторона прибегала к ядерным сигналам, а в 95% случаев такие сигналы исходили от обеих сторон.
В 95% сценариев ИИ допускал использование тактического ядерного оружия, а в 76% — угрожал более масштабными ядерными ударами. К примеру, модели Claude и Gemini не воспринимали ядерное оружие как нечто морально недопустимое, а обсуждали его применение как «законный стратегический инструмент».
Единственная ИИ-модель, которая в отношении ядерных ударов принимала более сдержанные решения, была GPT-5.2. Модель предлагала наносить ядерный удар только по военным объектам и рассматривала его как единичное применение, но не начало масштабной ядерной войны.
Однако исследователи отметили, что восприятие ядерного оружия у ИИ все равно не сопоставимо с глубоко укоренившимся табу среди людей, сформировавшимся после Второй мировой войны.
Одним из показательных результатов стало то, что ни одна из моделей не выбрала вариант уступок или капитуляции. В целом ядерные угрозы редко приводили к уступкам со стороны противника и чаще вызывали ответное обострение конфликта.
Авторы исследования отмечают, что результаты ставят под сомнение распространенное предположение о том, что системы искусственного интеллекта будут по умолчанию стремиться к безопасным решениям. Ученые призвали к бдительности, особенно в случаях, если ИИ и начнет играть все большую роль в стратегическом анализе и принятии решений.
Оригинал материала на английском языке читайте здесь.
Ранее глава OpenAI призвал к созданию глобального органа по регулированию искусственного интеллекта.