Я работаю над модульным трубопроводом, используя Turbo OpenAI GPT-4 (через/v1/chat/opplion ), который включает в себя многоэтапные цепочки призрачных призраков. Каждый шаг играет определенную роль (например, обнаружение намерения → Выполнение функции → суммирование → Ответ естественного языка). Я сталкиваюсь с архитектурными вопросами: < /p>
Каждый шаг зависит от вывода предыдущего, а некоторые шаги включают вызов функции (function_call: «Auto»), в то время как другие требуют динамического инъекции предыдущего контекста. /> Приводит ли инъекция промежуточных выходов в виде инструмента_каллов или приложения их к сообщениям лучше выравнивать? выводит обратно в GPT с помощью системных подсказок, или это загрязняет контекст тонкими способами? response_1 = openai.ChatCompletion.create(
model="gpt-4-turbo",
messages=[{ "role": "system", "content": "You are an intent classifier..." },
{ "role": "user", "content": user_input }]
)
response_2 = openai.ChatCompletion.create(
model="gpt-4-turbo",
messages=[
{ "role": "system", "content": f"Intent: {intent}" },
{ "role": "user", "content": "Proceed to handle the request using tool if needed." }
],
tools=[...],
tool_choice="auto"
)
< /code>
оценил бы любую информацию, особенно от людей, создающих модульные рабочие процессы ИИ с API Openai.>
Подробнее здесь: https://stackoverflow.com/questions/795 ... mic-memory
Цепочка множественных вызовов Turbo API GPT-4 с вызовом функции и динамической памятью/контекста внедрение ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение