Вот мой код:
Код: Выделить всё
public async void Prompt(string prompt)
{
output = "";
string input = instructions + prompt;
context = await ollama.StreamCompletion(input, context, stream => output += (stream.Response));
Console.WriteLine(output);
}
Контекст — это переменная ConversationContext.
Идея состоит в том, чтобы дать ему подсказку, по которой он должен следить за всем разговором, однако в настоящее время это необходимо ввести с помощью инструкций, добавляемых перед моим приглашением. Это не идеально, так как это противоречит цели LLM.
Что я хочу сделать, так это:
Вводить инструкции только при запуске.
Подсказки о вызовах как обычно.
При необходимости пусть он выполняет инструкции.
Я пробовал context += Но это недопустимый метод. Я искал решение этой проблемы, но нашел только еще один вопрос по этому поводу, и это было в феврале.
Подробнее здесь: https://stackoverflow.com/questions/788 ... in-context