import openai
import textwrap
client = openai.OpenAI(
api_key="sk-xxxxxxxx",
base_url="https://chatapi.akash.network/api/v1"
)
response = client.chat.completions.create(
model="Meta-Llama-3-1-8B-Instruct-FP8",
messages = [
{
"role": "user",
"content": "Who are you?"
}
],
)
print(textwrap.fill(response.choices[0].message.content, 50))
< /code>
Если я настраиваю учебное пособие по стартеру lmaindex, например: < /p>
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.openai import OpenAI
API_BASE_URL="https://chatapi.akash.network/api/v1"
EMBEDDING_MODEL="BAAI/bge-small-en-v1.5"
LLM_MODEL="Meta-Llama-3-3-70B-Instruct"
# Load your documents
documents = SimpleDirectoryReader("data").load_data()
# Pick an available OpenAI compatible model
custom_llm = OpenAI(api_base=API_BASE_URL, model=LLM_MODEL)
# Initialize the HuggingFace embedding model
embedding_model = HuggingFaceEmbedding(model_name=EMBEDDING_MODEL)
# Set the local embedding model
Settings.embed_model = embedding_model
# Build the index using the local embeddings
index = VectorStoreIndex.from_documents(documents, llm=custom_llm)
query_engine = index.as_query_engine(llm=custom_llm)
response = query_engine.query("What did the author do growing up?")
print(response)
Я получаю эту ошибку из клиентской библиотеки:
"Укажите допустимое имя модели OpenAI в: o1, o1-2024-12-17, o1-preview , o1-preview-2024-09-12, o1-mini, (...)"
File "C:\Dev\projects\llama-index-starter-tuto\.venv\Lib\site-packages\llama_index\llms\openai\utils.py", line 236, in openai_modelname_to_contextsize
raise ValueError(
ValueError: Unknown model 'Meta-Llama-3-3-70B-Instruct'. Please provide a valid OpenAI model name in: o1, o1-2024-12-17, o1-preview, o1-preview-2024-09-12, o1-mini, (...)
Если я удалю параметр «llm» из «as_query_engine» и установлю переменную env OPENAI_API_BASE=https://chatapi.akash.network/api/v1, я получу это от API :
"Не разрешено вызывать model=gpt-3.5-turbo. Разрешены командные модели = ['llama3-8b', 'Meta-Llama-3-1-405B-Instruct-FP8', 'llama3-8b-instruct', 'Meta-Llama-3-1-8B-Instruct-FP8', (...)"
openai.AuthenticationError: Error code: 401 - {'error': {'message': "Authentication Error, Team=643a4183-7eb9-4c20-8e31-db45843bffbe not allowed to call model=gpt-3.5-turbo. Allowed team models = ['llama3-8b', 'Meta-Llama-3-1-405B-Instruct-FP8', 'llama3-8b-instruct', 'Meta-Llama-3-1-8B-Instruct-FP8', 'Meta-Llama-3-2-3B-Instruct', 'nvidia-Llama-3-1-Nemotron-70B-Instruct-HF', 'Meta-Llama-3-3-70B-Instruct', (...)]", 'type': 'auth_error', 'param': 'None', 'code': '401'}}
< /code>
Значит ли это, что нет способа использовать llama_index.llms.openai для достижения конечной точки Akash? Клиент LIB ожидает набора моделей и API ожидает другого набора? < /p>
from llama_index.llms.llama_api import LlamaAPI
#(...)
#custom_llm = OpenAI(api_base=API_BASE_URL, model=LLM_MODEL)
custom_llm = LlamaAPI(api_key=LLAMA_API_KEY)
но нет возможности настроить базовый URL-адрес API.
Предполагается, что API AKASH Chat должен быть совместим с OpenAI: https://chatapi.akash.network/documentation, он совместим с основным Openai SDK: [code]import openai import textwrap client = openai.OpenAI( api_key="sk-xxxxxxxx", base_url="https://chatapi.akash.network/api/v1" )
print(textwrap.fill(response.choices[0].message.content, 50)) < /code> Если я настраиваю учебное пособие по стартеру lmaindex, например: < /p> from llama_index.embeddings.huggingface import HuggingFaceEmbedding from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings from llama_index.llms.openai import OpenAI
# Load your documents documents = SimpleDirectoryReader("data").load_data()
# Pick an available OpenAI compatible model custom_llm = OpenAI(api_base=API_BASE_URL, model=LLM_MODEL)
# Initialize the HuggingFace embedding model embedding_model = HuggingFaceEmbedding(model_name=EMBEDDING_MODEL)
# Set the local embedding model Settings.embed_model = embedding_model
# Build the index using the local embeddings index = VectorStoreIndex.from_documents(documents, llm=custom_llm)
query_engine = index.as_query_engine(llm=custom_llm) response = query_engine.query("What did the author do growing up?") print(response)
[/code] Я получаю эту ошибку из клиентской библиотеки: "Укажите допустимое имя модели OpenAI в: [b]o1, o1-2024-12-17, o1-preview , o1-preview-2024-09-12, o1-mini,[/b] (...)" [code] File "C:\Dev\projects\llama-index-starter-tuto\.venv\Lib\site-packages\llama_index\llms\openai\utils.py", line 236, in openai_modelname_to_contextsize raise ValueError( ValueError: Unknown model 'Meta-Llama-3-3-70B-Instruct'. Please provide a valid OpenAI model name in: o1, o1-2024-12-17, o1-preview, o1-preview-2024-09-12, o1-mini, (...) [/code] Если я удалю параметр «llm» из «as_query_engine» и установлю переменную env OPENAI_API_BASE=https://chatapi.akash.network/api/v1, я получу это от API : "Не разрешено вызывать model=gpt-3.5-turbo. Разрешены командные модели = [[b]'llama3-8b', 'Meta-Llama-3-1-405B-Instruct-FP8', 'llama3-8b-instruct', 'Meta-Llama-3-1-8B-Instruct-FP8'[/b], (...)" [code]openai.AuthenticationError: Error code: 401 - {'error': {'message': "Authentication Error, Team=643a4183-7eb9-4c20-8e31-db45843bffbe not allowed to call model=gpt-3.5-turbo. Allowed team models = ['llama3-8b', 'Meta-Llama-3-1-405B-Instruct-FP8', 'llama3-8b-instruct', 'Meta-Llama-3-1-8B-Instruct-FP8', 'Meta-Llama-3-2-3B-Instruct', 'nvidia-Llama-3-1-Nemotron-70B-Instruct-HF', 'Meta-Llama-3-3-70B-Instruct', (...)]", 'type': 'auth_error', 'param': 'None', 'code': '401'}} < /code> Значит ли это, что нет способа использовать llama_index.llms.openai для достижения конечной точки Akash? Клиент LIB ожидает набора моделей и API ожидает другого набора? < /p> from llama_index.llms.llama_api import LlamaAPI #(...) #custom_llm = OpenAI(api_base=API_BASE_URL, model=LLM_MODEL) custom_llm = LlamaAPI(api_key=LLAMA_API_KEY) [/code] но нет возможности настроить базовый URL-адрес API.
API чата Akash должен быть совместим с openai: он совместим с базовым OpenAI SDK:
import openai
import textwrap
client = openai.OpenAI(
api_key= sk-xxxxxxxx ,
base_url=
)
Предполагается, что API AKASH Chat должен быть совместим с OpenAI: он совместим с основным Openai SDK:
import openai
import textwrap
client = openai.OpenAI(
api_key= sk-xxxxxxxx ,
base_url=
)
из langchain.llms импортировать LlamaCpp из импорта langchain PromptTemplate, LLMChain из langchain.callbacks.manager импортировать CallbackManager из langchain.callbacks.streaming_stdout импортировать StreamingStdOutCallbackHandler шаблон = Вопрос:...
Я новичок в больших языковых моделях и API Hugging Face. В качестве практики я пытался настроить модель Llama 3.1 8b на наборе данных викитекста.
Когда я пытаюсь запустить следующий скрипт, я получаю неизвестную ошибку CUDA. CUDA error: unknown...
Я новичок в больших языковых моделях и API Hugging Face. В качестве практики я пытался настроить модель Llama 3.1 8b на наборе данных викитекста.
Когда я пытаюсь запустить следующий скрипт, я получаю неизвестную ошибку CUDA. CUDA error: unknown...