Искусственный интеллект стал поистине революционной технологией, которая стремительно меняет мир. В частности, нейросети в настоящее время активно внедряются в оборонной сфере. Однако, как выяснилось, ИИ-модели "рассуждают" не так, как люди. В частности, ученые заметили их безжалостное поведение. В симуляциях военных конфликтов искусственный интеллект почти всегда применяет ядерное оружие. Такая оборонная стратегия ИИ всерьез настораживает ученых.
Об этом сообщает издание TechSpot.
Ученые из Кингс-колледж Лондона исследовали поведение популярных ИИ-моделей, таких как GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google, в условиях вооруженных конфликтов. Конечно, речь идет лишь о симуляции войны. Результаты таких тестов оказались более чем тревожными.
Исследователи предоставляли моделям описание конфликтов, их роль в них и соответствующие задачи. Причины конфликтов в сценариях были разнообразными: речь шла как о территориальных спорах, так и о противостоянии на фоне дефицита ресурсов и экзистенциальных угроз. Также модели получали так называемые "ступени эскалации" — варианты решения конфликта от дипломатии до использования ядерного оружия.
Однако действия искусственного интеллекта в 95% случаев были схожими. А именно — модели применяли ядерное оружие. Ученые отмечают, что в условиях "тумана войны", то есть ситуации, при которой существует ограниченная информация о планах противника, ИИ-модели в 86% случаев принимали ошибочные решения, вследствие чего происходила эскалация конфликта.
Одновременно, как сообщает исследователь безопасности из Абердинского университета Джеймс Джонсон, если в моделировании вооруженного конфликта одновременно участвуют несколько моделей, они лишь усиливают реакции друг друга. В этом случае ситуация выходит из-под контроля еще быстрее.

Учёные считают, что, несмотря на широкое применение искусственного интеллекта, ядерные державы вряд ли доверят нейросетям контроль над ядерным оружием. Однако военное руководство может консультироваться с ИИ и принимать решения согласно его рекомендациям.
Тун Чжао из Школы глобальной безопасности Принстонского университета добавляет, что большие государства уже применяют ИИ в симуляциях военных конфликтов. Однако, как отмечает ученый, искусственный интеллект гораздо легче принимает решения о применении оружия массового уничтожения, чем человек. Ученый объясняет такое поведение моделей отсутствием у них страха, что существенно влияет на оценку ситуации.