Код: Выделить всё
class MLP(nn.Module):
def __init__(self):
super().__init__()
self.layers = nn.Sequential(
nn.Linear(2830, 1024),
nn.ReLU(),
nn.BatchNorm1d(1024),
nn.Dropout(0.2),
nn.Linear(1024, 512),
nn.ReLU(),
nn.BatchNorm1d(512),
nn.Dropout(0.2),
nn.Linear(512, 1),
)
def forward(self, x):
return self.layers(x)
Боюсь, что это представление частично неясно из-за множества слоев одинакового размера, которые в реальность — это простые слои ReLu, BatchNorm и Dropout. Я также отметил, что иногда эти типы слоев не показаны на диаграммах, но поскольку моя модель проста и я думаю, что они важны для ее правильного функционирования, я бы хотел их показать.
Do вы думаете, что эта схема верна? Можете ли вы понять структуру сети, глядя на изображение? Что бы вы сделали по-другому?
Подробнее здесь: https://stackoverflow.com/questions/784 ... am-correct