Langchain ChatOllama().invoke() выдал ошибку: AttributeError: объект «ModelPrivateAttr» не имеет атрибута «чат».Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Langchain ChatOllama().invoke() выдал ошибку: AttributeError: объект «ModelPrivateAttr» не имеет атрибута «чат».

Сообщение Anonymous »

Я использовал следующий код, чтобы проверить, работает ли ChatOllama() у меня

Код: Выделить всё

from langchain_ollama import ChatOllama

chatmodel = ChatOllama(
model="mistral:latest" # also tried model = 'mistral'
)

response_message = chatmodel.invoke("Tell me a joke")
Однако я получил следующее сообщение об ошибке

Код: Выделить всё

AttributeError: 'ModelPrivateAttr' object has no attribute 'chat'
Не знаю, что пошло не так.
Перед запуском приведенного выше кода Python я проверил, что сервер Ollama включен, и смог чтобы запустить модель Олламы в моем терминале:
Изображение
< /п>

Подробнее здесь: https://stackoverflow.com/questions/789 ... privateatt
Реклама
binomfx
 Re: Langchain ChatOllama().invoke() выдал ошибку: AttributeError: объект «ModelPrivateAttr» не имеет атрибута «чат».

Сообщение binomfx »

You need to update following packages: ollama, langchain, langchain-ollama
Run:

pip install -U langchain
pip install -U langchain-ollama
pip install -U ollama
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»