Я строю агента, использующего Langgraph, и у меня есть узел, который получает документы из векторного магазина. Я хочу добавить функциональность человека в петле. В частности, если в векторном хранилище не найдено никаких соответствующих документов, я хочу, чтобы агент попросил разрешение использовать другой узел, который использует большую языковую модель (LLM) с общими знаниями, чтобы предоставить ответ. < /P>
Могу ли я реализовать это поведение, используя прерывания в Langgraph, или есть еще один рекомендуемый способ достичь такого рода потока с возможностями Langgraph? Кроме того, я хотел бы знать, как правильно вызвать этот график с логикой человека в петле. /strong>
Подробнее здесь: https://stackoverflow.com/questions/794 ... r-document
Как реализовать и выполнить человеку в петле с агентом Langgraph для отказа от поиска документов и правильно его вызвать ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Нет модуля с именем «langgraph.prebuilt», «langgraph» не является пакетом.
Anonymous » » в форуме Python - 0 Ответы
- 92 Просмотры
-
Последнее сообщение Anonymous
-