Лучший способ разместить несколько файлов модели Pytorch для вывода?Python

Программы на Python
Ответить
Anonymous
 Лучший способ разместить несколько файлов модели Pytorch для вывода?

Сообщение Anonymous »

Контекст: [*]Я работаю со сквозной структурой TTS глубокого обучения (вы вводите текст, а он возвращает wav-объект) [*]Я создал конечную точку FastAPI в Docker-контейнере, который использует структуру TTS для вывода. [*]Мой клиентский интерфейс обращается к этой конечной точке FastAPI, чтобы сделать вывод на сервере графического процессора. [*]У меня будет несколько докер-контейнеров за балансировщиком нагрузки (haproxy), на которых будет работать один и тот же образ конечной точки FastAPI. Мои вопросы: [*]Выбор хранилища. Каков рекомендуемый подход к размещению файлов модели при развертывании нескольких контейнеров Docker? Следует ли мне использовать тома Docker или целесообразно использовать облачные хранилища, такие как S3 или Digital Ocean Spaces, для централизованного хранения моделей? [*]Проблемы с задержкой. Как минимизировать задержку при получении моделей из облачного хранилища? Существуют ли конкретные методы или оптимизации (кэширование, частичная загрузка и т. д.), которые можно реализовать для уменьшения влияния задержки, особенно при переключении между различными моделями для вывода?
Я все еще изучаю mlops, поэтому буду благодарен за любую помощь.
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»