Искусственный интеллект уже решает математические задачи, которые совсем недавно считались невозможными. Это не перспектива и не прогноз. Это происходит прямо сейчас. Системы, обученные на колоссальных объёмах данных, научились генерировать доказательства, причём делают это, по оценкам специалистов, «очень, очень хорошо». Разрыв между тем, что может машина, и тем, что способен верифицировать человек, сужается — и одновременно расширяется в каком-то парадоксальном смысле.
Парадокс тут в следующем. Чем лучше ИИ справляется с построением доказательств, тем сложнее эти доказательства становятся. И тем меньше людей способны их осмысленно прочитать, не говоря уже о том, чтобы подтвердить корректность. Мы приближаемся к ситуации, когда машина выдаёт результат, а лучшие математики мира просто пожимают плечами — потому что не могут ни опровергнуть, ни одобрить решение.
Для этого феномена есть ироничное название: «доказательство запугиванием» (proof by intimidation). В классической академической среде этот термин обычно применяют к ситуации, когда преподаватель или авторитетный учёный представляет утверждение с такой уверенностью, что аудитория не решается возразить. Теперь это выражение приобретает буквальный оттенок. Только вместо харизматичного профессора у доски — нейросеть, которая выдаёт доказательство настолько громоздкое или неинтуитивное, что проверяющий вынужден либо потратить годы на разбор, либо просто принять на веру.
Математика веками строилась на верификации. Каждое утверждение должно быть проверено другими математиками, каждый шаг — обоснован. Это фундамент доверия внутри дисциплины. Если какое-то звено цепочки нельзя проверить человеческим разумом, что остаётся? Принять на слово алгоритм?
Проблема не абстрактная. Представьте, что ИИ предлагает доказательство гипотезы, над которой десятилетиями бились целые исследовательские группы. Решение занимает, допустим, тысячи страниц, содержит нестандартные ходы и приёмы, которые ни один живой математик раньше не использовал. Формально — всё выглядит правильно. Ни одного найденного противоречия. Но и полного понимания тоже нет. Принимать ли такое доказательство? И если да, то остаётся ли математика в этот момент наукой в привычном нам смысле?
Часть специалистов скажет: а какая разница, кто решил задачу? Главное — результат. Если доказательство корректно и его можно формально верифицировать с помощью программ-верификаторов, то авторство не имеет значения. Другие будут настаивать на том, что математика — это результат и понимание. Доказательство, которое никто не понимает, — это артефакт, а не знание.
И вот тут возникает трещина между двумя лагерями. Одни готовы делегировать ИИ роль генератора доказательств, оставив за собой роль «приёмщиков», опирающихся на формальные верификаторы. Для других это неприемлемо, потому что подрывает саму идею математического познания.
Есть и практический аспект. Если математическое сообщество начнёт принимать непроверяемые человеком доказательства, что помешает ИИ однажды выдать доказательство с тонкой, но критической ошибкой? Люди уже не раз сталкивались с ситуациями, когда доказательства, опубликованные уважаемыми учёными, оказывались ошибочными спустя годы. Машина, какой бы мощной она ни была, тоже не застрахована от сбоев. Разница в том, что ошибку человека другой человек может обнаружить. Ошибку, спрятанную в тысячах строк машинного вывода, может уже не обнаружить никто.
Мы стоим на пороге, где математика перестаёт быть полностью человеческой дисциплиной. Вопрос не в том, сможет ли ИИ решать сложные задачи. Он уже может. Вопрос в том, готовы ли лучшие математики мира доверять решениям, которые они физически не способны проследить до конца. Пока ответа нет, и это, пожалуй, одна из самых тревожных открытых проблем на стыке науки и технологий.
Парадокс тут в следующем. Чем лучше ИИ справляется с построением доказательств, тем сложнее эти доказательства становятся. И тем меньше людей способны их осмысленно прочитать, не говоря уже о том, чтобы подтвердить корректность. Мы приближаемся к ситуации, когда машина выдаёт результат, а лучшие математики мира просто пожимают плечами — потому что не могут ни опровергнуть, ни одобрить решение.
Для этого феномена есть ироничное название: «доказательство запугиванием» (proof by intimidation). В классической академической среде этот термин обычно применяют к ситуации, когда преподаватель или авторитетный учёный представляет утверждение с такой уверенностью, что аудитория не решается возразить. Теперь это выражение приобретает буквальный оттенок. Только вместо харизматичного профессора у доски — нейросеть, которая выдаёт доказательство настолько громоздкое или неинтуитивное, что проверяющий вынужден либо потратить годы на разбор, либо просто принять на веру.
Математика веками строилась на верификации. Каждое утверждение должно быть проверено другими математиками, каждый шаг — обоснован. Это фундамент доверия внутри дисциплины. Если какое-то звено цепочки нельзя проверить человеческим разумом, что остаётся? Принять на слово алгоритм?
Проблема не абстрактная. Представьте, что ИИ предлагает доказательство гипотезы, над которой десятилетиями бились целые исследовательские группы. Решение занимает, допустим, тысячи страниц, содержит нестандартные ходы и приёмы, которые ни один живой математик раньше не использовал. Формально — всё выглядит правильно. Ни одного найденного противоречия. Но и полного понимания тоже нет. Принимать ли такое доказательство? И если да, то остаётся ли математика в этот момент наукой в привычном нам смысле?
Часть специалистов скажет: а какая разница, кто решил задачу? Главное — результат. Если доказательство корректно и его можно формально верифицировать с помощью программ-верификаторов, то авторство не имеет значения. Другие будут настаивать на том, что математика — это результат и понимание. Доказательство, которое никто не понимает, — это артефакт, а не знание.
И вот тут возникает трещина между двумя лагерями. Одни готовы делегировать ИИ роль генератора доказательств, оставив за собой роль «приёмщиков», опирающихся на формальные верификаторы. Для других это неприемлемо, потому что подрывает саму идею математического познания.
Есть и практический аспект. Если математическое сообщество начнёт принимать непроверяемые человеком доказательства, что помешает ИИ однажды выдать доказательство с тонкой, но критической ошибкой? Люди уже не раз сталкивались с ситуациями, когда доказательства, опубликованные уважаемыми учёными, оказывались ошибочными спустя годы. Машина, какой бы мощной она ни была, тоже не застрахована от сбоев. Разница в том, что ошибку человека другой человек может обнаружить. Ошибку, спрятанную в тысячах строк машинного вывода, может уже не обнаружить никто.
Мы стоим на пороге, где математика перестаёт быть полностью человеческой дисциплиной. Вопрос не в том, сможет ли ИИ решать сложные задачи. Он уже может. Вопрос в том, готовы ли лучшие математики мира доверять решениям, которые они физически не способны проследить до конца. Пока ответа нет, и это, пожалуй, одна из самых тревожных открытых проблем на стыке науки и технологий.