Генерация изображений с помощью нейросетей стала настолько обыденной, что мало кто задумывается о том, какой счёт за электричество стоит за каждой сгенерированной картинкой. Между тем традиционные нейронные сети потребляют колоссальное количество энергии. Дата-центры, обслуживающие генеративный ИИ, по энергозатратам уже сопоставимы с небольшими городами. И проблема только нарастает.
На этом фоне появился концепт, который звучит почти провокационно: «термодинамический компьютер», способный имитировать работу нейронных сетей ИИ, расходуя при этом на порядки меньше энергии для генерации изображений. Не на проценты, не вдвое — на порядки. То есть разница измеряется не арифметически, а в степенях десятки.
Суть подхода заключается в переходе от детерминированных вычислений, на которых построены стандартные нейросети, к вероятностным вычислительным системам. Классическая нейросеть решает задачу путём последовательных математических операций — каждый нейрон в каждом слое выполняет точный расчёт. Это надёжно, предсказуемо, но требует огромных вычислительных мощностей. Вероятностные системы устроены принципиально иначе: они используют элемент случайности, встроенный в сам физический процесс вычисления.
Термодинамические компьютеры, по сути, эксплуатируют тепловые флуктуации — то, что в обычных компьютерах считается помехой и с чем инженеры десятилетиями борются. Здесь шум становится рабочим инструментом. Система не пытается подавить хаос, а использует его для генерации вероятностных распределений, что и требуется при создании изображений.
Почему это работает именно для генеративных задач? Генерация изображений по своей природе — вероятностная задача. Когда нейросеть создаёт картинку по текстовому запросу, она по сути семплирует из сложного распределения данных. Именно поэтому каждая генерация дает немного разный результат. Термодинамический компьютер делает ту же операцию, но без необходимости прогонять миллиарды параметров через дискретные математические шаги.
Конечно, формулировка «на порядки меньше энергии» звучит впечатляюще, но конкретных цифр в ваттах или киловатт-часах пока нет. Это не столько коммерческий продукт, сколько демонстрация принципа. Тем не менее сам принцип выглядит убедительно: если задача по природе своей стохастическая, зачем решать её детерминированными средствами, расходуя энергию на имитацию случайности?
Энергетическая проблема ИИ перестала быть абстрактной. Крупнейшие технологические компании строят собственные электростанции, заключают контракты на поставку ядерной энергии и скупают права на гидроэнергетику. Любая технология, способная снизить потребление хотя бы в десять раз, потенциально перекраивает экономику всей индустрии.
Остаётся открытым вопрос масштабируемости. Одно дело — продемонстрировать генерацию изображений в лабораторных условиях. Другое — построить системы, способные обслуживать миллионы запросов. Вероятностные вычисления пока не имеют той инфраструктуры и програмного обеспечения, которые десятилетиями выстраивались вокруг традиционных архитектур.
Переход от нейросетей к термодинамическим вероятностным системам — если он окажется практически осуществим — может изменить не только энергопотребление ИИ, но и саму логику проектирования вычислительных устройств. Вместо борьбы с физикой инженеры начнут с ней сотрудничать. По крайней мере, в тех задачах, где случайность — не враг, а союзник.
На этом фоне появился концепт, который звучит почти провокационно: «термодинамический компьютер», способный имитировать работу нейронных сетей ИИ, расходуя при этом на порядки меньше энергии для генерации изображений. Не на проценты, не вдвое — на порядки. То есть разница измеряется не арифметически, а в степенях десятки.
Суть подхода заключается в переходе от детерминированных вычислений, на которых построены стандартные нейросети, к вероятностным вычислительным системам. Классическая нейросеть решает задачу путём последовательных математических операций — каждый нейрон в каждом слое выполняет точный расчёт. Это надёжно, предсказуемо, но требует огромных вычислительных мощностей. Вероятностные системы устроены принципиально иначе: они используют элемент случайности, встроенный в сам физический процесс вычисления.
Термодинамические компьютеры, по сути, эксплуатируют тепловые флуктуации — то, что в обычных компьютерах считается помехой и с чем инженеры десятилетиями борются. Здесь шум становится рабочим инструментом. Система не пытается подавить хаос, а использует его для генерации вероятностных распределений, что и требуется при создании изображений.
Почему это работает именно для генеративных задач? Генерация изображений по своей природе — вероятностная задача. Когда нейросеть создаёт картинку по текстовому запросу, она по сути семплирует из сложного распределения данных. Именно поэтому каждая генерация дает немного разный результат. Термодинамический компьютер делает ту же операцию, но без необходимости прогонять миллиарды параметров через дискретные математические шаги.
Конечно, формулировка «на порядки меньше энергии» звучит впечатляюще, но конкретных цифр в ваттах или киловатт-часах пока нет. Это не столько коммерческий продукт, сколько демонстрация принципа. Тем не менее сам принцип выглядит убедительно: если задача по природе своей стохастическая, зачем решать её детерминированными средствами, расходуя энергию на имитацию случайности?
Энергетическая проблема ИИ перестала быть абстрактной. Крупнейшие технологические компании строят собственные электростанции, заключают контракты на поставку ядерной энергии и скупают права на гидроэнергетику. Любая технология, способная снизить потребление хотя бы в десять раз, потенциально перекраивает экономику всей индустрии.
Остаётся открытым вопрос масштабируемости. Одно дело — продемонстрировать генерацию изображений в лабораторных условиях. Другое — построить системы, способные обслуживать миллионы запросов. Вероятностные вычисления пока не имеют той инфраструктуры и програмного обеспечения, которые десятилетиями выстраивались вокруг традиционных архитектур.
Переход от нейросетей к термодинамическим вероятностным системам — если он окажется практически осуществим — может изменить не только энергопотребление ИИ, но и саму логику проектирования вычислительных устройств. Вместо борьбы с физикой инженеры начнут с ней сотрудничать. По крайней мере, в тех задачах, где случайность — не враг, а союзник.