Я получаю сообщение об ошибке при попытке запустить autogen с помощью локального LLM.Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Я получаю сообщение об ошибке при попытке запустить autogen с помощью локального LLM.

Сообщение Anonymous »

Ниже приведен код, который я использую. Обратите внимание, что я использую LM Studio (LLM: Llama 2) и дважды проверил правильность номера сервера.

Код: Выделить всё

from autogen import AssistantAgent, UserProxyAgent

config_list = [
{
"api_type": "open_ai",
"api_base": "http://localhost:1234/v1",
"api_key": "NULL"
}
]

llm_config = {'config_list': config_list}

assistant = AssistantAgent(
name="assistant",
llm_config = llm_config
)

user_proxy = UserProxyAgent(
name="user_proxy",
human_input_mode="NEVER",
max_consecutive_auto_reply=100,
)

task = """write a python method to output numbers 1 to 100"""

user_proxy.initiate_chat(
assistant,
message=task
)
Это точный результат, который я получаю после запуска python app.py (название программы):
user_proxy (помощнику):
user_proxy (помощнику):
p>
напишите метод Python для вывода чисел от 1 до 100

Код: Выделить всё

--------------------------------------------------------------------------------
Traceback (most recent call last):
File "app.py", line 26, in 
user_proxy.initiate_chat(
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\agentchat\conversable_agent.py", line 550, in initiate_chat
self.send(self.generate_init_message(**context), recipient, silent=silent)
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\agentchat\conversable_agent.py", line 348, in send
recipient.receive(message, self, request_reply, silent)
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\agentchat\conversable_agent.py", line 481, in receive
reply = self.generate_reply(messages=self.chat_messages[sender], sender=sender)
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\agentchat\conversable_agent.py", line 906, in generate_reply
final, reply = reply_func(self, messages=messages, sender=sender, config=reply_func_tuple["config"])
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\agentchat\conversable_agent.py", line 625, in generate_oai_reply
response = client.create(
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\oai\client.py", line 247, in create
response = self._completions_create(client, params)
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\autogen\oai\client.py", line 327, in _completions_create
response = completions.create(**params)
File "C:\Users\Rohun\Development\AutoGen\env\lib\site-packages\openai\_utils\_utils.py", line 299, in wrapper
return func(*args, **kwargs)
TypeError: create() got an unexpected keyword argument 'api_type'
Я не уверен, к чему относится приведенная выше ошибка, поскольку я просмотрел ссылку autogen github, и она показывает, что они используют «api_type» несколько раз в списке конфигурации. Как это решить?

Подробнее здесь: https://stackoverflow.com/questions/775 ... -local-llm
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»