Что происходит «под капотом», когда мы вызываем loss.backward() для функции потерь в pytorchPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Что происходит «под капотом», когда мы вызываем loss.backward() для функции потерь в pytorch

Сообщение Anonymous »

Что происходит, когда мы вызываем обратный метод функции потерь? Как в коде ниже

Код: Выделить всё

import torch.nn as nn
outputs = model(inputs) # Example ResNet18
criterion = nn.CrossEntropyLoss()
loss = criterion(outputs, labels)
loss.backward()
Как мы можем рассчитать все градиенты (например, веса в скрытом слое), просто предоставляя выходные данные и метки. Почему нам не нужно предоставлять некоторую информацию о скрытом слое функции потери?

Подробнее здесь: https://stackoverflow.com/questions/786 ... unction-in
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»