Я новичок в pytorch, начал программировать с одного месяца.
это мой код грю
hidden_size = 32
gru_layers_count = 2
encoder = nn.GRU(hidden_size,
hidden_size,
num_layers = gru_layers_count,
batch_first = True, bidirectional=True)
ip = torch.randn(64, 100, hidden_size)
op, hn = encoder(ip)
print(op.shape, hn.shape)
выход:
torch.Size([64, 100, 64]) torch.Size([4, 64, 32])
здесь меня на самом деле интересует форма hn, его начальный размер равен 4, поэтому я предполагаю, что это 2 gru * 2 направления.
однако я Я немного запутался в расположении.
Итак, мой вопрос:
это похоже на то, что первые 2 являются прямыми, а последние 2 обратными скрытыми состояниями. или это чередующиеся прямые и обратные скрытые состояния?
Правильно ли использовать следующий метод для извлечения только прямых состояний gru?
forward_hidden = hn[[x for x in range(0, gru_layers_count * 2, 2)], :, :]
Подробнее здесь: https://stackoverflow.com/questions/793 ... -gru-layer
Может ли кто-нибудь объяснить вывод h_n слоя gru? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
TensorFlow.NET TensorFrlow.Keras GRU: создание GRU-lauer падает с NullReferenceException
Anonymous » » в форуме C# - 0 Ответы
- 22 Просмотры
-
Последнее сообщение Anonymous
-