Context
Я использую Open-Webui в качестве интерфейса для моих моделей и отправки запросов из Python для взаимодействия с ними. Однако, когда я посылаю вопрос, я получаю ошибку или неожиданное поведение, связанное с конечной точкой.
Проблема
Когда я делаю запрос в конечную точку через Python, вот что происходит: < /p>
- [Опишите сообщение об ошибке или странное поведение, которое вы наблюдаете] < /li>
[укажите, что EndPoint, вы. http://localhost:3000/api/...] - [Explain how you format your HTTP request (GET, POST, parameters, headers…)]
I have tried the following solutions:
[Describe the troubleshooting steps Вы приняли] < /li>
[упомянуть, проверяли ли вы журналы Open-webui] < /li>
[Укажите, если вы тестировали с различными конфигурациями или конечными точками] < /li>
< /ul>
Вопрос
, кто-нибудь столкнулся с этой проблемой с Open-webui и знает, как, чтобы он сорвался? Есть ли какая -то конкретная конфигурация, которую необходимо скорректировать для правильной работы Python?
Подробнее здесь: https://stackoverflow.com/questions/795 ... using-llms