Как настроить начальное руководство LlamaIndex для использования последней модели Llama, размещенной на «akash.network».Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как настроить начальное руководство LlamaIndex для использования последней модели Llama, размещенной на «akash.network».

Сообщение Anonymous »

API чата Akash должен быть совместим с openai: https://chatapi.akash.network/documentation, он совместим с базовым OpenAI SDK:

Код: Выделить всё

import openai
import textwrap
client = openai.OpenAI(
api_key="sk-xxxxxxxx",
base_url="https://chatapi.akash.network/api/v1"
)

response = client.chat.completions.create(
model="Meta-Llama-3-1-8B-Instruct-FP8",
messages = [
{
"role": "user",
"content": "Who are you?"
}
],
)

print(textwrap.fill(response.choices[0].message.content, 50))
Если я настрою начальное руководство LlamaIndex следующим образом:

Код: Выделить всё

from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.openai import OpenAI

API_BASE_URL="https://chatapi.akash.network/api/v1"
EMBEDDING_MODEL="BAAI/bge-small-en-v1.5"
LLM_MODEL="Meta-Llama-3-3-70B-Instruct"

# Load your documents
documents = SimpleDirectoryReader("data").load_data()

# Pick an available OpenAI compatible model
custom_llm = OpenAI(api_base=API_BASE_URL, model=LLM_MODEL)

# Initialize the HuggingFace embedding model
embedding_model = HuggingFaceEmbedding(model_name=EMBEDDING_MODEL)

# Set the local embedding model
Settings.embed_model = embedding_model

# Build the index using the local embeddings
index = VectorStoreIndex.from_documents(documents, llm=custom_llm)

query_engine = index.as_query_engine(llm=custom_llm)
response = query_engine.query("What did the author do growing up?")
print(response)

< /code>
Я получаю эту ошибку от клиента lib (): < /p>
  File "C:\Dev\projects\llama-index-starter-tuto\.venv\Lib\site-packages\llama_index\llms\openai\utils.py", line 236, in openai_modelname_to_contextsize
raise ValueError(
ValueError: Unknown model 'Meta-Llama-3-3-70B-Instruct'. Please provide a valid OpenAI model name in: o1, o1-2024-12-17, o1-preview, o1-preview-2024-09-12, o1-mini, (...)
Если я удалю параметр «llm» из «as_query_engine» и установлю переменную env OPENAI_API_BASE=https://chatapi.akash.network/api/v1, я получу это от API :
openai.AuthenticationError: Error code: 401 - {'error': {'message': "Authentication Error, Team=643a4183-7eb9-4c20-8e31-db45843bffbe not allowed to call model=gpt-3.5-turbo. Allowed team models = ['llama3-8b', 'Meta-Llama-3-1-405B-Instruct-FP8', 'llama3-8b-instruct', 'Meta-Llama-3-1-8B-Instruct-FP8', 'Meta-Llama-3-2-3B-Instruct', 'nvidia-Llama-3-1-Nemotron-70B-Instruct-HF', 'Meta-Llama-3-3-70B-Instruct', (...)]", 'type': 'auth_error', 'param': 'None', 'code': '401'}}
< /code>
Значит ли это, что нет способа использовать llama_index.llms.openai для достижения конечной точки Akash? Клиент LIB ожидает набора моделей и API ожидает другого набора?

Подробнее здесь: https://stackoverflow.com/questions/793 ... odel-hoste
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»