Я использую модель GPT35TURBO16K в своем приложении RAG. Я использую Solr для поиска документов. Проблема в том, что когда я передаю все источники, я получаю более короткий ответ, но когда я передаю подмножество источников, я получаю длинный ответ. В чем может быть причина этого? Я попытался изменить тип цепочки Map_reduce для генерации ответа. Но до сих пор не могу выяснить точную причину проблемы.
У кого-нибудь есть решение или подход, который можно попробовать?
Ожидает регенерации проблема требует решения, и я должен получить точные ответы только на основе предоставленных источников
Подробнее здесь: https://stackoverflow.com/questions/790 ... ources-get
Столкнулся с проблемой регенерации в моем приложении RAG. Когда я выбираю все источники, получаю более короткий ответ, а ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение