Я обучаю модели глубокого обучения, используя Tensorflow (с поддержкой GPU) на моей локальной машине. Я заметил удивительное поведение: < /p>
Когда я тренирую только одну модель (в одном терминале), она работает медленнее. Один. SEED.gpus = tf.config.list_physical_devices('GPU')
if gpus:
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
grid = GridSearchCV(estimator=model, param_grid=param_grid, n_jobs=1, cv=3)
start_time = time.time()
grid_result = grid.fit(X, Y)
end_time = time.time()
< /code>
Я предполагаю: когда работает только одна модель, она использует меньше ядер графических процессоров; Но когда несколько моделей работают параллельно, графический процессор становится все более полно используемым, и даже одна модель может в конечном итоге использовать больше ядер графических процессоров из -за лучшего общего планирования.
Подробнее здесь: https://stackoverflow.com/questions/796 ... -faster-th
Почему обучение многочисленных моделей глубокого обучения (через несколько терминалов) быстрее, чем обучение одной модел ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение