Почему обучение многочисленных моделей глубокого обучения (через несколько терминалов) быстрее, чем обучение одной моделPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Почему обучение многочисленных моделей глубокого обучения (через несколько терминалов) быстрее, чем обучение одной модел

Сообщение Anonymous »

Я обучаю модели глубокого обучения, используя Tensorflow (с поддержкой GPU) на моей локальной машине. Я заметил удивительное поведение: < /p>

Когда я тренирую только одну модель (в одном терминале), она работает медленнее. Один. SEED.gpus = tf.config.list_physical_devices('GPU')
if gpus:
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)

grid = GridSearchCV(estimator=model, param_grid=param_grid, n_jobs=1, cv=3)
start_time = time.time()
grid_result = grid.fit(X, Y)
end_time = time.time()
< /code>
Обновление: я заметил, что при обучении одной модели Nvidia-SMI сообщила о состоянии производительности графического процессора как P8, что указывает на режим низкого мощного или холостого хода. Однако, когда я запустил несколько учебных процессов в отдельных терминалах, состояние производительности увеличилось до P4 или даже P3. Я считаю, что это объясняет поведение, которое я наблюдал.

Подробнее здесь: https://stackoverflow.com/questions/796 ... -faster-th
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»