LangChain + локальная модель, совместимая с LLAMAPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 LangChain + локальная модель, совместимая с LLAMA

Сообщение Anonymous »


Я пытаюсь настроить демо-версию локального чат-бота для тестирования. Я хотел использовать LangChain в качестве основы и LLAMA в качестве модели. Все руководства, которые я нашел, включают некоторую регистрацию, ключ API, HuggingFace и т. д., что кажется ненужным для моих целей.

Есть ли способ использовать локальный файл модели, совместимый с LLAMA, только для целей тестирования? А также хотелось бы получить пример кода для использования модели с LangChain. Спасибо!

ОБНОВЛЕНИЕ. Я написал сообщение в блоге на основе принятого ответа.
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Meta llama 3.2 3b модель локальная загрузка
    Anonymous » » в форуме Python
    0 Ответы
    7 Просмотры
    Последнее сообщение Anonymous
  • Meta llama 3.2 3b модель локальная загрузка
    Anonymous » » в форуме Python
    0 Ответы
    7 Просмотры
    Последнее сообщение Anonymous
  • Meta llama 3.2 3b модель локальная загрузка
    Anonymous » » в форуме Python
    0 Ответы
    7 Просмотры
    Последнее сообщение Anonymous
  • Не удалось загрузить модель ламы по пути: ./Models/llama-7b.ggmlv3.q2_K.bin. Получена ошибка. Llama.__init__() получила
    Anonymous » » в форуме Python
    0 Ответы
    56 Просмотры
    Последнее сообщение Anonymous
  • Llama 3: получение неизвестной ошибки CUDA при точной настройке Llama 3 в викитексте
    Anonymous » » в форуме Python
    0 Ответы
    18 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»