Объединение нескольких вызовов API GPT-4 Turbo с вызовом функций и внедрением динамической памяти/контекста [закрыто]Python

Программы на Python
Ответить
Anonymous
 Объединение нескольких вызовов API GPT-4 Turbo с вызовом функций и внедрением динамической памяти/контекста [закрыто]

Сообщение Anonymous »

Я работаю над модульным конвейером с использованием OpenAI GPT-4 Turbo (через /v1/chat/completions), который включает в себя многоэтапные цепочки подсказок. Каждый шаг выполняет определенную роль (например, обнаружение намерений → выполнение функции → обобщение → ответ на естественном языке). Я сталкиваюсь с архитектурными вопросами:
Каждый шаг зависит от результатов предыдущего, а некоторые шаги включают вызов функции function_call: "auto", в то время как другие требуют динамического внедрения предыдущего контекста.
Вопросы:
Передача контекста:
Лучше ли передавать необработанные выходные данные JSON из предыдущих шагов в систему или подсказку пользователя?
Да внедрение промежуточных выходных данных в виде вызовов инструментов или добавление их к сообщениям обеспечивает лучшее выравнивание?
Поток вызова функции:
В многошаговых потоках мне следует вручную анализировать вызов функции и немедленно вызывать следующий шаг, или я могу вложить эту логику в определение инструмента для более чистой цепочки?
Безопасно ли передавать сгенерированные выходные данные обратно в GPT через системные подсказки, или это загрязняет контекст в тонкими способами?
Эффективность памяти?
Каков наилучший способ обрезать избыточную информацию между этапами без ухудшения качества?
Существует ли предел тому, сколько структурированного вывода GPT может «запомнить» и надежно повторно использовать в цепочке запросов?

Код: Выделить всё

    response_1 = openai.ChatCompletion.create(
model="gpt-4-turbo",
messages=[{ "role": "system", "content": "You are an intent classifier..." },
{ "role": "user", "content": user_input }]
)

response_2 = openai.ChatCompletion.create(
model="gpt-4-turbo",
messages=[
{ "role": "system", "content": f"Intent: {intent}" },
{ "role": "user", "content": "Proceed to handle the request using tool if needed." }
],
tools=[...],
tool_choice="auto"
)
Будем признательны за любую информацию, особенно от людей, создающих модульные рабочие процессы ИИ с помощью API OpenAI.
Если вы сделали это в большом масштабе, как вам удалось избежать беспорядочного раздувания контекста и проблем с задержкой?
Спасибо!>
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»