Ollama.Generate Повышает модель, не найденную ошибку: "hf.co/mradermacher/llama-3.2-3b-instruct-Uncensored-gguf"Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Ollama.Generate Повышает модель, не найденную ошибку: "hf.co/mradermacher/llama-3.2-3b-instruct-Uncensored-gguf"

Сообщение Anonymous »

Я пытаюсь запустить сценарий Python, который использует библиотеку Ollama для генерации ответов из пользовательской модели LLM. Мой код пытается позвонить в ollama.generate (), используя следующее имя модели: < /p>
chosen_model = 'hf.co/mradermacher/Llama-3.2-3B-Instruct-uncensored-GGUF'
< /code>
def extract_keyword(prompt):
response = ollama.generate(
model=chosen_model,
prompt=f"Identify the product/item in {prompt}. ..."
)
return response.get('response', '').strip()
< /code>
I have ollama installed and running locally, and other standard models work fine.
  • Is 'hf.co/mradermacher/Llama-3.2-3B-Instruct-uncensored-GGUF' a valid model name for use with ollama?
  • Do I need to pull the model manually using ollama pull or convert it in some way?
  • How can I verify the availability or compatibility of a model with ollama?
Error
Traceback (most recent call last):
File "/home/jas/Desktop/WNE3/Old/updatedPromptEnhancer.py", line 113, in
main()
File "/home/jas/Desktop/WNE3/Old/updatedPromptEnhancer.py", line 80, in main
keyword = extract_keyword(user_input)
File "/home/jas/Desktop/WNE3/Old/updatedPromptEnhancer.py", line 33, in extract_keyword
response = ollama.generate(
File "/home/jas/anaconda3/lib/python3.11/site-packages/ollama/_client.py", line 242, in generate
return self._request(
File "/home/jas/anaconda3/lib/python3.11/site-packages/ollama/_client.py", line 178, in _request
return cls(**self._request_raw(*args, **kwargs)).json()
File "/home/jas/anaconda3/lib/python3.11/site-packages/ollama/_client.py", line 122, in _request_raw
raise ResponseError(e.response.text, e.response.status_code) from None
ollama._types.ResponseError: model 'hf.co/mradermacher/Llama-3.2-3B-Instruct-uncensored-GGUF' not found (status code: 404)
< /code>
Link to code file:https://github.com/jahnvisikligar/Pytho ... nhancer.py
Any help to resolve this would be appreciated!

Подробнее здесь: https://stackoverflow.com/questions/796 ... a-3-2-3b-i
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Ollama.Generate Повышает модель, не найденную ошибку: "hf.co/mradermacher/llama-3.2-3b-instruct-Uncensored-gguf"
    Anonymous » » в форуме Python
    0 Ответы
    6 Просмотры
    Последнее сообщение Anonymous
  • Ollama.Generate Повышает модель, не найденную ошибку: "hf.co/mradermacher/llama-3.2-3b-instruct-Uncensored-gguf"
    Anonymous » » в форуме Python
    0 Ответы
    7 Просмотры
    Последнее сообщение Anonymous
  • Jpa Primary Key Auto Generate Generate
    Anonymous » » в форуме JAVA
    0 Ответы
    9 Просмотры
    Последнее сообщение Anonymous
  • Несоответствие поведения до и после преобразования модели, сгенерированной MLX, в GGUF (доступ через ollama)
    Anonymous » » в форуме Python
    0 Ответы
    18 Просмотры
    Последнее сообщение Anonymous
  • Llama-3.2-1B-Instruct генерирует противоречивые выходные данные
    Anonymous » » в форуме Python
    0 Ответы
    6 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»