Публикации по теме 'autograd'


Создание Backpropagation, Autograd, MNIST Classifier с нуля на Python
Backpropagation (обратное распространение ошибок) - широко используемый алгоритм при обучении сетей прямого распространения. Он вычисляет градиент функции потерь по отношению к весам сети. Основная идея состоит в том, чтобы разбить большие функции на мелкие части и использовать частные производные для получения производной функции с помощью правила цепочки. Таким образом, обучение модели в основном решает это уравнение: И поскольку решение этой задачи может быть очень сложной,..

Вопросы по теме 'autograd'

Как обернуть функции PyTorch и реализовать автоград?
Я прорабатываю руководство PyTorch по Определение нового автограда функции . Функция автограда, которую я хочу реализовать, представляет собой оболочку вокруг _1 _ . Вот что у меня есть на данный момент: import numpy as np import torch...
3602 просмотров
schedule 28.05.2022

Использование библиотек автоматического дифференцирования для вычисления частных производных произвольного тензора
(Примечание: это не вопрос обратного распространения.) Я пытаюсь решить на графическом процессоре нелинейную PDE, используя тензоры PyTorch вместо массивов Numpy. Я хочу вычислить частные производные произвольного тензора, аналогичные действию центра...
1871 просмотров
schedule 12.09.2023

Автоградиент Pytorch вызывает ошибку: ожидалось, что isFloatingType (grads [i] .type (). ScalarType ()) будет истинным, но получило ложное значение при loss.backward ()
Я работаю над реализацией состязательного обучения. Следующий код не работает: for i, data in tqdm(enumerate(train_loader), total=len(train_loader), smoothing=0.9): pc1, pc2 = data pc1 = pc1.to(device).transpose(2,...
866 просмотров

Pytorch: эффективная с памятью взвешенная сумма с весами, распределенными по каналам
Входы: 1) I = Тензор dim (N, C, X) (Вход) 2) W = Тензор dim (N, X, Y) (Вес) Выход: 1) O = Тензор dim (N, C, Y) (Выход) Я хочу вычислить: I = I.view(N, C, X, 1) W = W.view(N, 1, X, Y) PROD = I*W O = PROD.sum(dim=2) return O без...
606 просмотров
schedule 02.06.2022