Моя модель llama2 разговаривает сама с собой, задает вопрос и отвечает на него, используя диалоговую поисковую цепочку.Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Моя модель llama2 разговаривает сама с собой, задает вопрос и отвечает на него, используя диалоговую поисковую цепочку.

Сообщение Anonymous »

Я реализовал RAG в документе с использованием модели LLama2, но моя модель задает сама себе вопросы и отвечает на них.

Код: Выделить всё

llm = LlamaCpp(model_path=model_path,
temperature=0,
max_tokens=2000,
top_p=0.1,
n_ctx=2048,

)

qa_chain = ConversationalRetrievalChain.from_llm(
llm,
vectorstore.as_retriever(search_kwargs={'k': 2}),
)

chat_history = []
while True:
query = input('Prompt: ')
if query.lower() in ["exit", "quit", "q"]:
print('Exiting')
sys.exit()
result = qa_chain({'question': query, 'chat_history': chat_history})
print('Answer: ' + result['answer'] + '\n')
chat_history.append((query, result['answer']))
Я пробовал большинство онлайн-решений, но большинство из них не используют этот способ.


Подробнее здесь: https://stackoverflow.com/questions/790 ... to-them-us
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»