Как PyTorch Управляет Тензорами и Вычислениями

В основе PyTorch лежит понятие тензора как многомерного массива, чьи данные хранятся в одномерном массиве. Для представления формы и доступа к элементам используются атрибуты shape и stride. Операция транспонирования создает «вид» на те же данные, а не копию. Изменение типа данных создаёт копию тензора. Методы .view() и .reshape() используются для изменения формы тензора, при этом .view() создает представление, а .reshape() может и копировать данные.
Как PyTorch Управляет Тензорами и Вычислениями
Изображение носит иллюстративный характер

Широковещание в PyTorch позволяет выполнять операции с тензорами разных форм без копирования данных. Градиенты в таком случае накапливаются в меньших измерениях. Перемножение матриц обрабатывается с учетом широковещания, а фактически является пакетным умножением.

Движок автоматического дифференцирования строит граф вычислений, опираясь на производные базовых скалярных операций. Операции вроде изменения формы влияют на градиенты аналогично тому, как они влияют на значения тензора.

Для оптимизации вычислений применяются транспонирование и блочное умножение матриц. PyTorch не хранит промежуточные активации, которые не требуются для обратного распространения. Пакетная обработка позволяет обрабатывать несколько операций одновременно.

Транспонирование: Операция .t() возвращает view (представление) на те же данные, а не создаёт новую копию. Изменения в одном view влияют на другой.

Типы данных: Приведение типов данных (например, из int64 в float16) создаёт новый тензор с копией данных.

Хранилище данных: Данные в PyTorch хранятся в виде одномерного массива (torch.Storage), а форма и шаг (stride) используются для доступа к элементам.

Stride: Шаг определяет, как двигаться по одномерному массиву для доступа к элементам с разными индексами в многомерном тензоре.

.view() vs.reshape(): .view() создаёт представление (view) с той же памятью, а .reshape() может создавать копию данных при несовместимости форм.

Широковещание (Broadcasting): Применяется при операциях с тензорами разных форм, и не копирует данные, а лишь ссылается на существующие элементы. При широковещании градиенты накапливаются по элементам в меньшем измерении.

Перемножение матриц: Осуществляется с учетом широковещания оставшихся измерений. Фактически, происходит пакетное перемножение матриц.

Обратное распространение: Строится на производных базовых скалярных операций. Операции, не меняющие значения, аналогично воздействуют и на градиенты.

Оптимизация перемножения матриц: Транспонирование и блочное умножение могут повысить производительность, уменьшая промахи кэша.

Оптимизация памяти: PyTorch не хранит промежуточные активации, если они не требуются для обратного распространения.

Пакетная обработка: Перемножение матриц обрабатывает несколько операций одновременно.


Новое на сайте

19817В Луксоре нашли стелу с римским императором в образе фараона 19816Экипаж Artemis II о моменте, когда земля исчезла за луной 19815Почему луна выглядит по-разному в разных точках земли? 19814Adobe экстренно закрыла опасную дыру в Acrobat Reader, которую хакеры использовали с... 19813Метеорный поток, рождённый из умирающего астероида 19812Когда робот пишет за тебя прощальную смс 19811Что общего у лунной миссии, толстого попугая, загадочной плащаницы и лекарства от диабета? 19810Какие снимки Artemis II уже стали иконами лунной программы? 19809Кто на самом деле хочет сладкого — вы или ваши бактерии? 19808Как рекламные данные 500 миллионов телефонов оказались в руках спецслужб? 19807Экипаж Artemis II вернулся на землю после десяти дней в космосе 19806Зелёная и коричневая луна: почему геологи Artemis II уже не могут усидеть на месте 19805Эксперты уверены в теплозащитном щите Artemis II, несмотря на проблемы предшественника 19804Выжить внутри торнадо: каково это — когда тебя засасывает в воронку 19803Аляскинские косатки-охотники на млекопитающих замечены у берегов Сиэтла
Ссылка