Я обучаю модели глубокого обучения, используя Tensorflow (с поддержкой GPU) на моей локальной машине. Я заметил удивительное поведение: < /p>
Когда я тренирую только одну модель (в одном терминале), она работает медленнее. Один. SEED.gpus = tf.config.list_physical_devices('GPU')
if gpus:
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
grid = GridSearchCV(estimator=model, param_grid=param_grid, n_jobs=1, cv=3)
start_time = time.time()
grid_result = grid.fit(X, Y)
end_time = time.time()
< /code>
Обновление: я заметил, что при обучении одной модели Nvidia-SMI сообщила о состоянии производительности графического процессора как P8, что указывает на режим низкого мощного или холостого хода. Однако, когда я запустил несколько учебных процессов в отдельных терминалах, состояние производительности увеличилось до P4 или даже P3. Я считаю, что это объясняет поведение, которое я наблюдал.
Подробнее здесь: https://stackoverflow.com/questions/796 ... -faster-th
Почему обучение многочисленных моделей глубокого обучения (через несколько терминалов) быстрее, чем обучение одной модел ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение