Llama-cpp-python не использует NVIDIA GPU CUDAPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Llama-cpp-python не использует NVIDIA GPU CUDA

Сообщение Anonymous »

Я несколько недель без проблем играл с oobabooga text-generation-webui на своей Ubuntu 20.04 с NVIDIA GTX 1060 6 ГБ. Я использовал модели llama2-chat, разделяющие память между моей оперативной памятью и NVIDIA VRAM. Я установил без особых проблем, следуя инструкциям в его репозитории.
Итак, теперь я хочу использовать загрузчик модели llama-cpp с его пакетом llama-cpp-python< /code> привязки, чтобы поиграть с ними самому. Итак, используя ту же среду miniconda3, которую использует oobabooga text-generation-webui, я запустил блокнот Jupyter и смог сделать выводы, и все работает хорошо НО ТОЛЬКО для ЦП.
Рабочий пример ниже

Код: Выделить всё

from llama_cpp import Llama

llm = Llama(model_path="/mnt/LxData/llama.cpp/models/meta-llama2/llama-2-7b-chat/ggml-model-q4_0.bin",
n_gpu_layers=32, n_threads=6, n_ctx=3584, n_batch=521, verbose=True),

prompt = """[INST] 
Name the planets in the solar system?

[/INST]
"""
output = llm(prompt, max_tokens=350, echo=True)
print(output['choices'][0]['text'].split('[/INST]')[-1])
Конечно! Вот восемь планет нашей Солнечной системы, перечисленные в порядке от ближайшей к Солнцу:
  • Меркурий
  • Венера
  • Земля
  • Марс
  • Юпитер
  • Сатурн
  • Уран
  • Нептун

Обратите внимание, что Плутон ранее считался планетой, но теперь классифицируется как карликовая планета из-за его небольшого размера и уникальной орбиты.

Я также хочу сделать вывод с использованием графического процессора. Что не так?
Почему я не могу выполнить разгрузку на графический процессор, как указано в параметре n_gpu_layers=32, а также, как oobabooga text-generation-webui уже делает это без каких-либо проблем в той же среде miniconda ?

Подробнее здесь: https://stackoverflow.com/questions/769 ... a-gpu-cuda
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Llama-cpp-python не использует NVIDIA GPU CUDA
    Anonymous » » в форуме Python
    0 Ответы
    55 Просмотры
    Последнее сообщение Anonymous
  • Llama-cpp-python не использует nvidia gpu cuda
    Anonymous » » в форуме Python
    0 Ответы
    39 Просмотры
    Последнее сообщение Anonymous
  • Llama-cpp-python не использует nvidia gpu cuda
    Anonymous » » в форуме Python
    0 Ответы
    10 Просмотры
    Последнее сообщение Anonymous
  • Llama-cpp-python не использует nvidia gpu cuda
    Anonymous » » в форуме Python
    0 Ответы
    10 Просмотры
    Последнее сообщение Anonymous
  • Llama-cpp-python не использует nvidia gpu cuda
    Anonymous » » в форуме Python
    0 Ответы
    2 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»