В настоящее время работает над классификатором с использованием Pywaellet, вот мой блок расчетов: < /p>
class WaveletLayer(nn.Module):
def __init__(self):
super(WaveletLayer, self).__init__()
def forward(self, x):
def wavelet_transform(img):
coeffs = pywt.dwt2(img.cpu().numpy(), "haar")
LL, (LH, HL, HH) = coeffs
return (
torch.from_numpy(LL).to(img.device),
torch.from_numpy(LH).to(img.device),
torch.from_numpy(HL).to(img.device),
torch.from_numpy(HH).to(img.device),
)
# Apply wavelet transform to each channel separately
LL, LH, HL, HH = zip(
*[wavelet_transform(x[:, i : i + 1]) for i in range(x.shape[1])]
)
# Concatenate the results
LL = torch.cat(LL, dim=1)
LH = torch.cat(LH, dim=1)
HL = torch.cat(HL, dim=1)
HH = torch.cat(HH, dim=1)
return torch.cat([LL, LH, HL, HH], dim=1)
< /code>
Вывод из этого модуля переходит в блок Resnet для обучения, в то время как это я нахожу забитый процессор и, таким образом, замедляет свой процесс обучения < /p>
Я пытаюсь использовать графические процессоры для этих расчетов.
Подробнее здесь: https://stackoverflow.com/questions/793 ... ion-on-gpu
Расчет PywaveLet на GPU ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение