Как PyTorch Управляет Тензорами и Вычислениями

В основе PyTorch лежит понятие тензора как многомерного массива, чьи данные хранятся в одномерном массиве. Для представления формы и доступа к элементам используются атрибуты shape и stride. Операция транспонирования создает «вид» на те же данные, а не копию. Изменение типа данных создаёт копию тензора. Методы .view() и .reshape() используются для изменения формы тензора, при этом .view() создает представление, а .reshape() может и копировать данные.
Как PyTorch Управляет Тензорами и Вычислениями
Изображение носит иллюстративный характер

Широковещание в PyTorch позволяет выполнять операции с тензорами разных форм без копирования данных. Градиенты в таком случае накапливаются в меньших измерениях. Перемножение матриц обрабатывается с учетом широковещания, а фактически является пакетным умножением.

Движок автоматического дифференцирования строит граф вычислений, опираясь на производные базовых скалярных операций. Операции вроде изменения формы влияют на градиенты аналогично тому, как они влияют на значения тензора.

Для оптимизации вычислений применяются транспонирование и блочное умножение матриц. PyTorch не хранит промежуточные активации, которые не требуются для обратного распространения. Пакетная обработка позволяет обрабатывать несколько операций одновременно.

Транспонирование: Операция .t() возвращает view (представление) на те же данные, а не создаёт новую копию. Изменения в одном view влияют на другой.

Типы данных: Приведение типов данных (например, из int64 в float16) создаёт новый тензор с копией данных.

Хранилище данных: Данные в PyTorch хранятся в виде одномерного массива (torch.Storage), а форма и шаг (stride) используются для доступа к элементам.

Stride: Шаг определяет, как двигаться по одномерному массиву для доступа к элементам с разными индексами в многомерном тензоре.

.view() vs.reshape(): .view() создаёт представление (view) с той же памятью, а .reshape() может создавать копию данных при несовместимости форм.

Широковещание (Broadcasting): Применяется при операциях с тензорами разных форм, и не копирует данные, а лишь ссылается на существующие элементы. При широковещании градиенты накапливаются по элементам в меньшем измерении.

Перемножение матриц: Осуществляется с учетом широковещания оставшихся измерений. Фактически, происходит пакетное перемножение матриц.

Обратное распространение: Строится на производных базовых скалярных операций. Операции, не меняющие значения, аналогично воздействуют и на градиенты.

Оптимизация перемножения матриц: Транспонирование и блочное умножение могут повысить производительность, уменьшая промахи кэша.

Оптимизация памяти: PyTorch не хранит промежуточные активации, если они не требуются для обратного распространения.

Пакетная обработка: Перемножение матриц обрабатывает несколько операций одновременно.


Новое на сайте

19989Шесть историй, которые умещаются на ладони 19986Как 30 000 аккаунтов Facebook оказались в руках вьетнамских хакеров? 19985LofyGang вернулась: как бразильские хакеры охотятся на геймеров через поддельные читы 19984Автономная проверка защиты: как не отстать от ИИ-атак 19983Взлом Trellix: хакеры добрались до исходного кода одной из ведущих компаний по... 19982Почему почти 3000 монет в норвежском поле перевернули представление о викингах? 19981Как поддельная CAPTCHA опустошает ваш счёт и крадёт криптовалюту? 19980Слежка за каждым шагом: как ИИ превращает государство в машину тотального контроля 19979Как хакеры грабят компании через звонок в «техподдержку» 19978Почему именно Нью-Йорк стал самым уязвимым городом восточного побережья перед... 19977Как одна команда git push открывала доступ к миллионам репозиториев 19976Зачем древние народы убивали ножами и мечами: оружие как основа власти 19975Как Python-бэкдор DEEPDOOR крадёт ваши облачные пароли незаметно? 19974Послание в бутылке: математика невозможного 19973Почему ИИ-инфраструктура стала новой целью хакеров быстрее, чем ждали все?
Ссылка