Код: Выделить всё
xxx_optimizer.step()Однако у меня есть два разных оптимизатора на одном этапе обучения, что означает, что self.trainer.global_step будет удвоен.
Это раздражает, потому что self.trainer.global_step всегда будет удваиваться, когда я включаю второй оптимизатор, из-за чего мои обратные вызовы контрольных точек выполняются неправильно путь. Они будут несовпадать с другими контрольными точками, полученными в экспериментах без второго оптимизатора.
Есть ли какой-нибудь простой способ решить эту проблему?
Стресс: я пытаюсь контролировать global_step, чтобы убедиться, что мой обратный вызов контрольной точки работает правильно. (Потому что я не уверен, что другие вещи будут неправильными, если я изменю только обратный вызов.)
Я пытаюсь перезаписать self.trainer.global_step, но обнаружил, что это функция получения и ее нельзя изменить.
Подробнее здесь: https://stackoverflow.com/questions/790 ... -lightning
Мобильная версия