ИИ в военных симуляциях почти всегда выбирает ядерный удар

Новое исследование, связанное с применением искусственного интеллекта в военном моделировании, дало результаты, от которых сложно отмахнуться. Когда ИИ-модели помещали в условия классических военных игр, где нужно принимать стратегические решения в условиях конфликта, они раз за разом шли по пути эскалации. Причём не останавливались на полпути, а доходили до самого крайнего варианта — инициирования ядерного удара.
ИИ в военных симуляциях почти всегда выбирает ядерный удар
Изображение носит иллюстративный характер

Формулировка «почти всегда» здесь не журналистское преувеличение. Именно так описывают результат сами исследователи. В подавляющем большинстве прогонов симуляции ИИ предпочитал наращивать давление вместо того, чтобы искать дипломатические развязки или хотя бы замораживать конфликт на текущем уровне. Деэскалация в его «репертуаре» практически отсутствовала.
Это, конечно, не значит, что кто-то завтра отдаст ядерный чемоданчик нейросети. Но тенденция тревожная. Военные ведомства разных стран всё активнее интегрируют ИИ-системы в процессы принятия решений — пока на уровне аналитики и рекомендаций. И если модель, лежащая в основе такой аналитики, имеет встроенный «перекос» к агрессии, это проблема не теоретическая.
Почему ИИ ведёт себя так? Одно из возможных объяснений: модели оптимизируют результат по формальным критериям «победы» в конфликте, а ядерный удар в рамках игровой логики — самый быстрый путь к подавлению противника. У машины нет понимания, что победа ценой уничтожения всего — это не победа. Нет инстинкта самосохранения, нет страха последствий, нет моральной рамки.
Человек-стратег, даже самый ястребиный генерал, при принятии решений учитывает десятки факторов, которые трудно формализовать. Политическое давление, общественное мнение, личный страх, историческая память — всё это работает как сдерживающий механизм. ИИ лишён этих «тормозов».
Результаты симуляций ставят под серьёзный вопрос саму идею передачи военных решений автономным системам. Одно дело — использовать ИИ для логистики, распознавания целей или обработки разведданных. Совсем другое — допускать его к стратегическому планированию, где цена ошибки измеряется не в процентах эффективности, а в человеческих жизнях. И не в тысячах, а в миллионах.
Примечательно, что исследование касалось не какой-то одной конкретной модели, а показало системную склонность ИИ к эскалации. Это не баг одного продукта — это паттерн поведения, характерный для самого подхода к тому, как современные модели обучаются и принимают решения в условиях конфликтных сценариев.


Новое на сайте

19817В Луксоре нашли стелу с римским императором в образе фараона 19816Экипаж Artemis II о моменте, когда земля исчезла за луной 19815Почему луна выглядит по-разному в разных точках земли? 19814Adobe экстренно закрыла опасную дыру в Acrobat Reader, которую хакеры использовали с... 19813Метеорный поток, рождённый из умирающего астероида 19812Когда робот пишет за тебя прощальную смс 19811Что общего у лунной миссии, толстого попугая, загадочной плащаницы и лекарства от диабета? 19810Какие снимки Artemis II уже стали иконами лунной программы? 19809Кто на самом деле хочет сладкого — вы или ваши бактерии? 19808Как рекламные данные 500 миллионов телефонов оказались в руках спецслужб? 19807Экипаж Artemis II вернулся на землю после десяти дней в космосе 19806Зелёная и коричневая луна: почему геологи Artemis II уже не могут усидеть на месте 19805Эксперты уверены в теплозащитном щите Artemis II, несмотря на проблемы предшественника 19804Выжить внутри торнадо: каково это — когда тебя засасывает в воронку 19803Аляскинские косатки-охотники на млекопитающих замечены у берегов Сиэтла
Ссылка