У меня есть декодер model.decoder, который состоит из серии слоев Convolutional Batchnorm и ReLU. У меня есть скрытый вектор latent_l, который представляет собой 8-мерный скрытый вектор, скажем, имеет размерность (1, 8, 1, 1), где 1 — размер пакета. Я делаю torch.autograd.functional.jacobian(model.decoder, latent_l), что занимает огромное количество времени. Есть ли какое-нибудь быстрое приближение для этого якобиана?
Существует jacrev, но я не уверен, работает ли он в этом примере, где мы передаем декодер целиком и вычисляем якобиан декодера относительно скрытого вектора.
Когда я использую torch.autograd.functional.jacobian(model.decoder,latent_l,vectorize=True), потребление памяти графическим процессором резко возрастает, что приводит к сбою программы. Есть ли эффективный способ сделать это с помощью Pytorch?
Подробнее здесь: https://stackoverflow.com/questions/792 ... al-jacobia
Есть ли более быстрая и экономичная по памяти альтернатива torch.autograd.functional.jacobian(model.decoder, latent_l)? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Почему вывод torch.nn.functional.linear отличается при умножении каждой строки?
Anonymous » » в форуме Python - 0 Ответы
- 31 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Что такое ComputeType of torch.nn.functional.lineear, когда вход Float16 или Bfloat16
Anonymous » » в форуме Python - 0 Ответы
- 9 Просмотры
-
Последнее сообщение Anonymous
-