Как управлять «trainer.global_step» в молнии pytorch?Python

Программы на Python
Ответить
Anonymous
 Как управлять «trainer.global_step» в молнии pytorch?

Сообщение Anonymous »

В pytorch Lightning тренер увеличит global_step в зависимости от того, во сколько раз

Код: Выделить всё

 xxx_optimizer.step()
выполнялся, когда self.automatic_optimization = False.
Однако у меня есть два разных оптимизатора на одном этапе обучения, что означает, что self.trainer.global_step будет удвоен.
Это раздражает, потому что self.trainer.global_step всегда будет удваиваться, когда я включаю второй оптимизатор, из-за чего мои обратные вызовы контрольных точек выполняются неправильно путь. Они будут несовпадать с другими контрольными точками, полученными в экспериментах без второго оптимизатора.
Есть ли какой-нибудь простой способ решить эту проблему?
Стресс: я пытаюсь контролировать global_step, чтобы убедиться, что мой обратный вызов контрольной точки работает правильно. (Потому что я не уверен, что другие вещи будут неправильными, если я изменю только обратный вызов.)
Я пытаюсь перезаписать self.trainer.global_step, но обнаружил, что это функция получения и ее нельзя изменить.

Подробнее здесь: https://stackoverflow.com/questions/790 ... -lightning
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»