Я обучаю сверточный автокодировщик реконструкции изображений, но выходные данные модели размыты и малоконтрастны по сравнению с ожидаемыми результатами. Вот настройка:
Код: Выделить всё
Python Version: 3.7
TensorFlow Version: 1.15.8 (DirectML)
GPU: AMD Radeon RX 6700XT
Model Type: Convolutional Autoencoder
Что я пробовал:
- Снижение скорости обучения.
- Нормализация набора данных до диапазона [0,1][0,1].
- Регулировка количества фильтров в кодере и декодере.
- Использование MSE в качестве функции потерь.
1-) Может ли удвоение фильтров в слоях кодера/декодера помочь устранить размытость, как это делают критики GAN?
2-) Можно ли объединить потери MAE с MSE во время обучение, чтобы смягчить проблему десатурации?
3-) Существуют ли специальные архитектурные или обучающие изменения, позволяющие улучшить качество вывода и избежать размытых/блеклых результатов?
Изображения:
Входные, целевые (ожидаемые результаты) и прогнозируемые результаты прилагаются для сравнения.
Пример 1:

Пример 2:

Я был бы очень признателен за любые советы или идеи по эффективному решению этой проблемы. Заранее спасибо!
Подробнее здесь: https://stackoverflow.com/questions/792 ... del-traini
Мобильная версия