Почему обучение многочисленных моделей глубокого обучения (через несколько терминалов) быстрее, чем обучение одной моделPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Почему обучение многочисленных моделей глубокого обучения (через несколько терминалов) быстрее, чем обучение одной модел

Сообщение Anonymous »

Я обучаю модели глубокого обучения, используя Tensorflow (с поддержкой GPU) на моей локальной машине. Я заметил удивительное поведение: < /p>

Когда я тренирую только одну модель (в одном терминале), она работает медленнее. Один. SEED.gpus = tf.config.list_physical_devices('GPU')
if gpus:
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)

grid = GridSearchCV(estimator=model, param_grid=param_grid, n_jobs=1, cv=3)
start_time = time.time()
grid_result = grid.fit(X, Y)
end_time = time.time()
< /code>
Я предполагаю: когда работает только одна модель, она использует меньше ядер графических процессоров; Но когда несколько моделей работают параллельно, графический процессор становится все более полно используемым, и даже одна модель может в конечном итоге использовать больше ядер графических процессоров из -за лучшего общего планирования.

Подробнее здесь: https://stackoverflow.com/questions/796 ... -faster-th
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»