Код: Выделить всё
curl -X POST http://localhost:11434/v1/completions \
-H "Content-Type: application/json" \
-d '{
"model": "phi3:mini",
"prompt": "Test query"
}'
< /code>
работает, и я получаю ответ. Я также проверил, что модель существует в моей службе Ollama. Но когда я пытаюсь отправить запрос из моего приложения Python с < /p>
from langchain_community.llms.ollama import Ollama
model = Ollama(name=model_version, base_url=LLAMA_BASE_URL)
for chunk in self.model.stream(input_text):
accumulated_text += chunk
< /code>
Где:
model_version="phi3:mini"
Код: Выделить всё
langchain_community.llms.ollama.OllamaEndpointNotFoundError:
Ollama call failed with status code 404.
Maybe your model is not found and you should pull the model with `ollama pull llama2`.
Подробнее здесь: https://stackoverflow.com/questions/793 ... s-phi3mini