Я добавил встраивание модели обнимающего лица в мою местную олламу с помощью этого файла модели: [code]FROM /home/user/hugging_face/sbert_large_nlu_ru
PARAMETER stop "" PARAMETER stop "" TEMPLATE """ system {{ .System }} user {{ .Prompt }} assistant """ [/code] Проверил ответ в Postman: [img]https://i.sstatic.net/0gOuXYCY.png[/img]
А теперь используйте эту модель в моем проекте на Python. Я использую ollama-python https://github.com/ollama/ollama-python. Вот мой простой код: [code]from ollama import Client client = Client(host='http://192.168.70.79:11434') response = client.embed(model='sbert_large_nlu_ru:latest', input='Привет')
print(response) [/code] И вот ответ: [img]https://i.sstatic.net/fzty8596.png[/img] < /p> Как я вижу, встраивания разные. Почему? Что я могу там пропустить?
У меня есть встраивание OpenAI, созданное на основе их API.
Я вижу примеры помещения этого вектора в Postgres или Sqlite и последующего выполнения к нему запроса.
Я ищу простой код на Python, где я могу использовать текстовую строку и посмотреть,...
Здесь я использую пример с веб-сайта haystack
Я использовал поэзию, чтобы добавить ollama-haystack
Я запускаю следующее код с использованием Python 3.12.3 в WSL2 Ubuntu 24.04
from haystack_integrations.components.embedders.ollama import...
Здесь я использую пример с веб-сайта haystack
Я использовал поэзию, чтобы добавить ollama-haystack
Я запускаю следующее код с использованием Python 3.12.3 в WSL2 Ubuntu 24.04
from haystack_integrations.components.embedders.ollama import...
Я размещаю Ollama на ноутбуке Kaggle и использую Ngrok для создания туннеля, позволяющего мне подключаться к клиенту Ollama на моем локальном компьютере через командную строку. Туннель Ngrok работает как положено, и я могу через него...
В настоящее время я создаю систему планирования календаря на первом этапе (например, Google Calendar), и я работаю со следующим типом данных о событиях, возвращенных из моего API:
Это включает повторяющиеся события (RRULE), все дневные события...