Однако я столкнулся с проблемой, которую, как новичку в Pytorch, мне трудно понять.
RuntimeError: Попытка пройти по графику назад во второй раз (или напрямую получить доступ к сохраненным тензорам после того, как они уже были освобождены). Сохраненные промежуточные значения графика освобождаются при вызове .backward() или autograd.grad(). Укажите continue_graph=True, если вам нужно пройти по графику назад во второй раз или если вам нужно получить доступ к сохраненным тензорам после обратного вызова.
Я не хочу понять, почему он будет пытаться вернуться назад по тому же графику во второй раз? или я получаю прямой доступ к сохраненным тензорам после их освобождения? Я не понимаю, почему это происходит.
У меня довольно простой код [code]import torch import random
image_width, image_height = 128, 128
def apply_ellipse_mask(img, pos, axes): mask = torch.zeros_like(img) for r in range(image_height): for c in range(image_width): val = ((c - pos[0])**2) / axes[0]**2 + ((r - pos[1])**2) / axes[1]**2 assert not torch.isnan(val) mask[r][c] = torch.where(0.9 < val < 1, torch.tensor(1.0), torch.tensor(0.0))
loss = criterion(current_image, ref_image) loss.backward() print(_, loss) optimizer.step()
[/code] Однако я столкнулся с проблемой, которую, как новичку в Pytorch, мне трудно понять.
RuntimeError: Попытка пройти по графику назад во второй раз (или напрямую получить доступ к сохраненным тензорам после того, как они уже были освобождены). Сохраненные промежуточные значения графика освобождаются при вызове .backward() или autograd.grad(). Укажите continue_graph=True, если вам нужно пройти по графику назад во второй раз или если вам нужно получить доступ к сохраненным тензорам после обратного вызова.
Я не хочу понять, почему он будет пытаться вернуться назад по тому же графику во второй раз? или я получаю прямой доступ к сохраненным тензорам после их освобождения? Я не понимаю, почему это происходит.
Я пытаюсь разработать свою настроенную модель с помощью PyTorch и рассчитать градиенты с использованием потерь. назад(). Я получаю эту ошибку, когда запускаю loss.backward() без установки «retain_graph=True», поскольку установка этого параметра...
У меня есть следующий обучающий код. Я совершенно уверен, что вызываю loss.backward() только один раз, но получаю ошибку из заголовка. Что я делаю неправильно? Обратите внимание, что X_train_tensor выводится из другого расчета графа, поэтому он...
У меня есть следующий обучающий код. Я совершенно уверен, что вызываю loss.backward() только один раз, но получаю ошибку из заголовка. Что я делаю неправильно? Обратите внимание, что X_train_tensor выводится из другого расчета графа, поэтому он...
У меня есть следующий обучающий код. Я совершенно уверен, что вызываю loss.backward() только один раз, но получаю ошибку из заголовка. Что я делаю неправильно? Обратите внимание, что X_train_tensor выводится из другого расчета графа, поэтому он...