Я настраиваю и вызов следующей функции в цикле: < /p>
client = OpenAI(api_key=os.getenv("LLAMA_API_KEY"), base_url = "https://api.llama-api.com")
def get_generated_text(...):
response = client.chat.completions.create(model="llama3.3-70b",
messages=[
{"role": "system", "content": "..."},
{"role": "user", "content": "..."}
],
top_p=0.95)
return response.choices[0].message.content
< /code>
У кого -нибудь еще была эта проблема, или есть определенные лучшие практики, которые я не читал в документации? так много!

Подробнее здесь: https://stackoverflow.com/questions/794 ... nd-request