Увеличено время отклика модели машинного обучения при ее развертывании на одном сервере вместо двух.Python

Программы на Python
Ответить
Anonymous
 Увеличено время отклика модели машинного обучения при ее развертывании на одном сервере вместо двух.

Сообщение Anonymous »

Недавно я развернул модель машинного обучения с использованием графического процессора на двух параллельных серверах. Нагрузка запросов распределялась между ними с помощью балансировщика нагрузки. Чтобы сократить использование ресурсов, я решил перейти на настройку с одним сервером, направив все запросы непосредственно на один из серверов. Сервер оснащен графическим процессором Nvidia tesla t4. Модель использует около 1,2 ГБ из 15 ГБ.
После изменений я заметил следующее:
Загрузка ЦП: осталась почти без изменений. .
Загрузка графического процессора: увеличилась вдвое, как и ожидалось, но не превысила мощность графического процессора.
Средний процент использования графического процессора увеличился с 7,5 % до 16,5 %
Максимальный процент использования графического процессора увеличился с 38 % до 48 %
90-й процентиль процентного использования графического процессора увеличился с 19 % до 34 % p>
Время отклика модели: увеличено в среднем примерно на 10–15 %.
Несмотря на эти наблюдения, я не могу точно определить причину увеличенное время отклика от модели. Есть идеи или предложения?

Подробнее здесь: https://stackoverflow.com/questions/792 ... on-a-singl
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»