Проблема с конечной точкой с Open-Webui в моем приложении Python с использованием LLMSPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Проблема с конечной точкой с Open-Webui в моем приложении Python с использованием LLMS

Сообщение Anonymous »

Я сталкиваюсь с проблемой с Open-webui, когда я запрошу свои языковые модели (LLMS) из моего приложения Python.
Context
Я использую Open-Webui в качестве интерфейса для моих моделей и отправки запросов из Python для взаимодействия с ними. Однако, когда я посылаю вопрос, я получаю ошибку или неожиданное поведение, связанное с конечной точкой.
Проблема
Когда я делаю запрос в конечную точку через Python, вот что происходит: < /p>
  • [Опишите сообщение об ошибке или странное поведение, которое вы наблюдаете] < /li>
    [укажите, что EndPoint, вы. http://localhost:3000/api/...]
  • [Explain how you format your HTTP request (GET, POST, parameters, headers…)]
What I’ve Tried
I have tried the following solutions:

[Describe the troubleshooting steps Вы приняли] < /li>
[упомянуть, проверяли ли вы журналы Open-webui] < /li>
[Укажите, если вы тестировали с различными конфигурациями или конечными точками] < /li>
< /ul>
Вопрос
, кто-нибудь столкнулся с этой проблемой с Open-webui и знает, как, чтобы он сорвался? Есть ли какая -то конкретная конфигурация, которую необходимо скорректировать для правильной работы Python?

Подробнее здесь: https://stackoverflow.com/questions/795 ... using-llms
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»