В настоящее время при использовании LLMChain в LangChain я могу получить приглашение используемого шаблона и ответ от модели, но можно ли получить точное текстовое сообщение, отправленное в качестве запроса к модели, без необходимости вручную заполнить шаблон приглашения?
Пример:
Код: Выделить всё
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChain
llm = OpenAI(model_name="gpt-3.5-turbo-0613")
prompt = PromptTemplate(input_variables=["a", "b"], template="Hello {a} and {b}")
chain = LLMChain(llm=llm, prompt=prompt)
result = chain.call({"a": "some text", "b": "some other text"})
Я не могу найти что-то подобное в объектах цепочки или результата. Я пробовал некоторые параметры, такие как return_final_only=True и include_run_info=True, но они не включают то, что я ищу.
Подробнее здесь:
https://stackoverflow.com/questions/766 ... ain-python