Обзор нейросетей: от MLP до KAN и RBF

Нейронные сети прямого распространения, включая многослойный персептрон (MLP), радиально-базисные функции (RBF) и сети Колмогорова-Арнольда (KAN), можно рассматривать как последовательные преобразования данных. MLP, применяя аффинные преобразования и нелинейные функции активации, осуществляет линейное разделение в трансформированном пространстве. Теоремы универсальной аппроксимации доказывают, что при определённых условиях MLP могут аппроксимировать широкий класс функций, но не гарантируют нахождение оптимального решения на практике.
Обзор нейросетей: от MLP до KAN и RBF
Изображение носит иллюстративный характер

В отличие от MLP, RBF-сети используют радиальные базисные функции, вычисляя расстояние до центров, и могут также быть представлены как частный случай KAN. Вариации SVM также могут быть представлены в виде нейросети, а их ядра, такие как линейное, полиномиальное и гауссово, влияют на трансформацию данных. RBF-сети могут использовать различные ядра и обучаемые центры. Многослойные RBF-сети обладают свойством универсальной аппроксимации, но их реализация с методом обратного распространения менее исследована.

KAN обобщает MLP, используя суперпозиции сумм функций одной переменной. B-spline KAN представляет собой реализацию KAN, где функции аппроксимируются B-сплайнами, и, по сути, является модификацией MLP со смещением в виде гладкой непрерывной функции. В B-spline KAT, функции являются гладкими и непрерывными, и могут быть обобщены для пространств Соболева. Выбор архитектуры зависит от конкретной задачи: B-spline KAN может быть интересен своей гибкостью, а B-spline KAT – при ограничении на гладкие непрерывные функции.


Новое на сайте