Я сравниваю разные модели по их производительности для обнаружения дыхания. Для каждой модели я стараюсь предсказать непрерывный дыхательный сигнал в качестве задачи регрессии, а также бинарную классификацию для каждого момента времени (вдыхание или выдох), используя видеоданные в качестве входных данных, поэтому SEQ-SEQ, 480 TimeSteps на выборку.
I обучает все модели совершенно новой для каждого теста, с категорией MSE для регрессии и (взвешенной) категорической энтропии для классификации. Теперь, как правило, это работает довольно хорошо, что означает модели, которые работают хорошо/плохие в задаче регрессии, также хорошо/плохо работают при классификации. Единственная разница в моих моделях - это последний полностью связанный линейный слой, где для регрессии я ставлю выходом DIM 1, и для классификации A 4.
Однако для двух моделей задача регрессии работает очень хорошо, но задача классификации работает довольно плохо. Они переполняют задачу классификации, но не на задаче регрессии. Это чего -то, чего ожидать? Я много пробовал с обрезкой веса, распадом, уменьшением размеров слоев, скоростями обучения и т. Д., Но каждый раз, когда он либо преувеличивает, либо, после слишком много регуляризации, он ничего не узнает (очевидно). Единственное, о чем я могу придумать сейчас, - это предварительно посадить на задачу регрессии, а затем использовать веса и только изменить последний слой; Тем не менее, мне было интересно, является ли это поведение несколько «типичным» или каким-то странным свойством этих сетей? LSTMS (с некоторыми предварительно предпринятыми последовательностями функций в качестве ввода вместо изображений) и видео трансформатор работает отлично, поэтому это не кажется проблемой самого данных /размера набора данных /размера модели.
Подробнее здесь: https://stackoverflow.com/questions/797 ... ression-pe
Почему мои модели классификации намного хуже, чем его регрессионная производительность? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение