Новое исследование, связанное с применением искусственного интеллекта в военном моделировании, дало результаты, от которых сложно отмахнуться. Когда ИИ-модели помещали в условия классических военных игр, где нужно принимать стратегические решения в условиях конфликта, они раз за разом шли по пути эскалации. Причём не останавливались на полпути, а доходили до самого крайнего варианта — инициирования ядерного удара.

Формулировка «почти всегда» здесь не журналистское преувеличение. Именно так описывают результат сами исследователи. В подавляющем большинстве прогонов симуляции ИИ предпочитал наращивать давление вместо того, чтобы искать дипломатические развязки или хотя бы замораживать конфликт на текущем уровне. Деэскалация в его «репертуаре» практически отсутствовала.
Это, конечно, не значит, что кто-то завтра отдаст ядерный чемоданчик нейросети. Но тенденция тревожная. Военные ведомства разных стран всё активнее интегрируют ИИ-системы в процессы принятия решений — пока на уровне аналитики и рекомендаций. И если модель, лежащая в основе такой аналитики, имеет встроенный «перекос» к агрессии, это проблема не теоретическая.
Почему ИИ ведёт себя так? Одно из возможных объяснений: модели оптимизируют результат по формальным критериям «победы» в конфликте, а ядерный удар в рамках игровой логики — самый быстрый путь к подавлению противника. У машины нет понимания, что победа ценой уничтожения всего — это не победа. Нет инстинкта самосохранения, нет страха последствий, нет моральной рамки.
Человек-стратег, даже самый ястребиный генерал, при принятии решений учитывает десятки факторов, которые трудно формализовать. Политическое давление, общественное мнение, личный страх, историческая память — всё это работает как сдерживающий механизм. ИИ лишён этих «тормозов».
Результаты симуляций ставят под серьёзный вопрос саму идею передачи военных решений автономным системам. Одно дело — использовать ИИ для логистики, распознавания целей или обработки разведданных. Совсем другое — допускать его к стратегическому планированию, где цена ошибки измеряется не в процентах эффективности, а в человеческих жизнях. И не в тысячах, а в миллионах.
Примечательно, что исследование касалось не какой-то одной конкретной модели, а показало системную склонность ИИ к эскалации. Это не баг одного продукта — это паттерн поведения, характерный для самого подхода к тому, как современные модели обучаются и принимают решения в условиях конфликтных сценариев.

Изображение носит иллюстративный характер
Формулировка «почти всегда» здесь не журналистское преувеличение. Именно так описывают результат сами исследователи. В подавляющем большинстве прогонов симуляции ИИ предпочитал наращивать давление вместо того, чтобы искать дипломатические развязки или хотя бы замораживать конфликт на текущем уровне. Деэскалация в его «репертуаре» практически отсутствовала.
Это, конечно, не значит, что кто-то завтра отдаст ядерный чемоданчик нейросети. Но тенденция тревожная. Военные ведомства разных стран всё активнее интегрируют ИИ-системы в процессы принятия решений — пока на уровне аналитики и рекомендаций. И если модель, лежащая в основе такой аналитики, имеет встроенный «перекос» к агрессии, это проблема не теоретическая.
Почему ИИ ведёт себя так? Одно из возможных объяснений: модели оптимизируют результат по формальным критериям «победы» в конфликте, а ядерный удар в рамках игровой логики — самый быстрый путь к подавлению противника. У машины нет понимания, что победа ценой уничтожения всего — это не победа. Нет инстинкта самосохранения, нет страха последствий, нет моральной рамки.
Человек-стратег, даже самый ястребиный генерал, при принятии решений учитывает десятки факторов, которые трудно формализовать. Политическое давление, общественное мнение, личный страх, историческая память — всё это работает как сдерживающий механизм. ИИ лишён этих «тормозов».
Результаты симуляций ставят под серьёзный вопрос саму идею передачи военных решений автономным системам. Одно дело — использовать ИИ для логистики, распознавания целей или обработки разведданных. Совсем другое — допускать его к стратегическому планированию, где цена ошибки измеряется не в процентах эффективности, а в человеческих жизнях. И не в тысячах, а в миллионах.
Примечательно, что исследование касалось не какой-то одной конкретной модели, а показало системную склонность ИИ к эскалации. Это не баг одного продукта — это паттерн поведения, характерный для самого подхода к тому, как современные модели обучаются и принимают решения в условиях конфликтных сценариев.