Я реализовал RAG в документе с использованием модели LLama2, но моя модель задает сама себе вопросы и отвечает на них. [code]llm = LlamaCpp(model_path=model_path, temperature=0, max_tokens=2000, top_p=0.1, n_ctx=2048,
chat_history = [] while True: query = input('Prompt: ') if query.lower() in ["exit", "quit", "q"]: print('Exiting') sys.exit() result = qa_chain({'question': query, 'chat_history': chat_history}) print('Answer: ' + result['answer'] + '\n') chat_history.append((query, result['answer'])) [/code] Я пробовал большинство онлайн-решений, но большинство из них не используют этот способ.
Я реализовал RAG в документе с использованием модели LLama2, но моя модель задает сама себе вопросы и отвечает на них.
llm = LlamaCpp(model_path=model_path,
temperature=0,
max_tokens=2000,
top_p=0.1,
n_ctx=2048,
я пытаюсь создать бота, который отвечает на вопросы из chromadb, я сохранил несколько файлов PDF с метаданными, такими как имя файла и имя кандидата, моя проблема в том, что когда я использую диалоговую цепочку поиска, модель LLM просто получает...
Я делаю распознавание речи для хобби и после первого запуска «времени» в Cmd: Если в рамках утверждения я не делаю этого снова
import speech_recognition as sr
import pyttsx3 as ptts
import datetime