Я создаю приложение Q&A Flask, которое использует LangChain в серверной части, но у меня возникли проблемы с потоковой передачей ответа от ChatGPT. Моя цепочка выглядит так:
Код: Выделить всё
chain = VectorDBQA.from_chain_type(llm=ChatOpenAI(model_name="gpt-3.5-turbo", streaming=True, chain_type="stuff", vectorstore=docsearch)
...
result = chain({"query": query})
output = result['result']
Я пробовал использоватьstream_template, но он не работает (он не передает результат, он просто печатает полный ответ сразу, хотя, возможно, я делаю что-то не так).
Наконец-то я решил эту проблему:
https://github.com/DanteNoguez/FlaskGPT
Подробнее здесь: https://stackoverflow.com/questions/758 ... -langchain