Я размещаю Ollama на ноутбуке Kaggle и использую Ngrok для создания туннеля, позволяющего мне подключаться к клиенту Ollama на моем локальном компьютере через командную строку. Туннель Ngrok работает как положено, и я могу через него взаимодействовать с клиентом Ollama.
Чтобы расширить настройку, я создал новую среду и установил OpenWebUI для Ollama с помощью pip (не Docker). . Однако, когда я запускаю OpenWebUI, ему не удается подключиться к клиенту Ollama, хотя туннель Ngrok активен и работоспособен.
Я следовал этому руководству, чтобы настроить систему, скорректировал LD_LIBRARY_PATH по данным Kaggle:
Вот что я пробовал на данный момент:
Проверил, что URL-адрес туннеля Ngrok правильный и доступен.
Убедился, что блокнот Kaggle работает и Ollama работает.
Несмотря на это, OpenWebUI, похоже, не распознает Олламу и не подключается к ней.
Это блокнот, который я использую: - [https://www.kaggle.com/code/singh008/ollama-server]
ПРИМЕЧАНИЕ: то же самое происходит и в Colab
Что может быть причиной этой проблемы? Нужны ли мне определенные настройки в OpenWebUI для работы с Ollama, размещенной на Kaggle, через Ngrok?
Подробнее здесь: https://stackoverflow.com/questions/792 ... ng-to-olla
Размещение Ollama на ноутбуке Kaggle с помощью Ngrok: OpenWebUI не подключается к клиенту Ollama ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Ngrok перенаправляет на localhost вместо ngrok-url в обратном вызове ajax (проект ASP.NET)
Anonymous » » в форуме C# - 0 Ответы
- 25 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Как в Kaggle Notebook сохранить все файлы по их именам в /kaggle/working/... внутри вывода?
Anonymous » » в форуме Linux - 0 Ответы
- 44 Просмотры
-
Последнее сообщение Anonymous
-