Супер простой код:
Код: Выделить всё
from langchain_ollama import ChatOllama
import logging
logging.basicConfig(
level=logging.DEBUG,
format='%(asctime)s.%(msecs)03d [%(levelname)s]: %(message)s',
datefmt='%H:%M:%S'
)
logging.info("### Starting up")
llm = ChatOllama(
model="llama3.1",
)
response_message = llm.invoke(
"What are you?"
)
print(response_message.content)
Код: Выделить всё
Exception has occurred: ResponseError
invalid format: expected "json" or a JSON schema
File "C:\XXXX\local_rag\main.py", line 16, in
response_message = llm.invoke(
^^^^^^^^^^^
ollama._types.ResponseError: invalid format: expected "json" or a JSON schema
Нет проблем с остальным API, т.е.
Код: Выделить всё
curl http://localhost:11434/api/chat -d '{
"model": "llama3.1",
"messages": [
{ "role": "user", "content": "why is the sky blue?" }
]
}'
Изменить:
Версия Ollama имеет значение, но также и установка llm.format = None< /code> работает так, как предложено в комментарии.
Подробнее здесь: https://stackoverflow.com/questions/792 ... json-error