У меня на локальном компьютере установлена программа Ollama, и я могу запускать ollama run tinyllama из командной строки, а также задавать вопросы llm из командной строки. Но при запуске кода на Python он не дает ответа.
он только печатает: пустой ответ
Ниже приведен код:
Подробнее здесь: https://stackoverflow.com/questions/792 ... etting-mes
Ollama, llama_index, HuggingFaceEmbedding, VectorStoreIndex, python — получение сообщения «Пустой ответ» ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Интеграция индекса Llama VectorStoreIndex с агентами Langchain для тряпичных приложений
Anonymous » » в форуме Python - 0 Ответы
- 13 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Llama 3: получение неизвестной ошибки CUDA при точной настройке Llama 3 в викитексте
Anonymous » » в форуме Python - 0 Ответы
- 18 Просмотры
-
Последнее сообщение Anonymous
-