Я использую API-интерфейсы вывода Huggingface для базового приложения GenAI с использованием Llama 3.2 и Mistral. При вызове API я получаю следующую ошибку:
(MaxRetryError("HTTPSConnectionPool(host='api-inference.huggingface.co', port=443): Max retries exceeded with url: /models/mistralai/Mistral-7B-Instruct-v0.3/v1/chat/completions (Caused by SSLError(SSLCertVerificationError(1, '\[SSL: CERTIFICATE_VERIFY_FAILED\] certificate verify failed: unable to get local issuer certificate (\_ssl.c:1000)')))"), '(Request ID: b4e71615-6cbc-4e46-9315-7403f74e398d)')
Та же ошибка сохраняется и для модели Llama 3.2.
Соответствующий фрагмент кода показан ниже:
Я попробовал обновить библиотеку запросов, а также правильно установил переменную среды REQUESTS_CA_BUNDLE и подтвердил, что сертификат установлен. Что я могу сделать, чтобы решить эту проблему?
Я использую API-интерфейсы вывода Huggingface для базового приложения GenAI с использованием Llama 3.2 и Mistral. При вызове API я получаю следующую ошибку: [code](MaxRetryError("HTTPSConnectionPool(host='api-inference.huggingface.co', port=443): Max retries exceeded with url: /models/mistralai/Mistral-7B-Instruct-v0.3/v1/chat/completions (Caused by SSLError(SSLCertVerificationError(1, '\[SSL: CERTIFICATE_VERIFY_FAILED\] certificate verify failed: unable to get local issuer certificate (\_ssl.c:1000)')))"), '(Request ID: b4e71615-6cbc-4e46-9315-7403f74e398d)') [/code] Та же ошибка сохраняется и для модели Llama 3.2. Соответствующий фрагмент кода показан ниже: [code]@staticmethod def retLLMModel(): llm = HuggingFaceEndpoint( repo_id="mistralai/Mistral-7B-Instruct-v0.2", # repo_id="codellama/CodeLlama-34b-Instruct-hf", max_new_tokens=1500, top_k=10, top_p=0.95, typical_p=0.95, temperature=0.01, repetition_penalty=1.03, huggingfacehub_api_token=os.getenv("HUGGING_FACE_KEY") ) return llm
code = result['output'].strip("```") if len(code.split("```"))>1: code = code.split("```")[1].replace("python","")
print("result = ", result)
except Exception as e: error.append(f"yes : {e}" ) #print(e) #print("error_code 1 = ", error) return {"generation":" ", "error":error} [/code] Я попробовал обновить библиотеку запросов, а также правильно установил переменную среды REQUESTS_CA_BUNDLE и подтвердил, что сертификат установлен. Что я могу сделать, чтобы решить эту проблему?
Я пытаюсь генерировать встраивание, используя API вывода об объятия с Langchain в Python, но я сталкиваюсь с проблемами. Моя цель состоит в том, чтобы использовать API (не локальные модели) для генерации встроений для текста, в частности, с моделью...
Я пытаюсь генерировать встраивание, используя API вывода об объятия с Langchain в Python, но я сталкиваюсь с проблемами. Моя цель состоит в том, чтобы использовать API (не локальные модели) для генерации встроений для текста, в частности, с моделью...
Я использую Langgraph 0.2.0 и получаю ошибку, описанную ниже после того, как я вызову функцию infoke (). Как написать сообщения, чтобы избежать ошибок?
class State(TypedDict):
messages: Annotated
Я следую инструкциям LangGraph и LangChain по созданию чат-бота и получил успешный результат на первом этапе. После привязки инструментов и завершения второго шага возникает следующая ошибка:
Traceback (most recent call last):
File \beegmodel.py ,...
Это ошибка
langsmith.utils.LangSmithConnectionError: ошибка соединения привела к сбою при получении GET /commits/-/sql-prmpt-2/latest в LangSmith API. Пожалуйста, подтвердите подключение к Интернету. SSLError(MaxRetryError(...