Вопросы развертывания для службы искусственного интеллекта с использованием моделей OllamaPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Вопросы развертывания для службы искусственного интеллекта с использованием моделей Ollama

Сообщение Anonymous »

Я планирую развернуть приложение, которое использует модели LLM. В настоящее время я использую контейнер Docker для запуска модели через Ollama, и я использую IP -адрес Localhost для доступа к моему LLM.
Теперь я хочу развернуть его в Azure. Я могу использовать DataBricks для моего приложения. Каким будет лучшая опция развертывания для моего приложения? Где мне хранить свое приложение Python, чтобы иметь доступ к местным API Ollama и легко запустить его с помощью некоторых пользовательских вводов?
Большое спасибо.

Подробнее здесь: https://stackoverflow.com/questions/796 ... ama-models
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»