Проблема с настройкой Llama-2 в Google Colab. Ошибка запуска ячейки при загрузке фрагментов контрольной точки.Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Проблема с настройкой Llama-2 в Google Colab. Ошибка запуска ячейки при загрузке фрагментов контрольной точки.

Сообщение Anonymous »

Я пытаюсь использовать чат Llama 2 (через обнимающееся лицо) с параметрами 7B в Google Colab (Python 3.10.12). Я уже получил свой токен доступа через Meta. Я просто использую код, чтобы понять, как реализовать модель вместе с моим токеном доступа. Вот мой код:

Код: Выделить всё

!pip install transformers

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

token = "---Token copied from Hugging Face and pasted here---"

tokenizer = AutoTokenizer.from_pretrained("meta-llama/Llama-2-7b-chat-hf", token=token)
model = AutoModelForCausalLM.from_pretrained("meta-llama/Llama-2-7b-chat-hf", token=token)
Он начинает загрузку модели, но когда достигает загрузки фрагментов контрольной точки: он просто перестает работать и ошибок нет:
Изображение


Подробнее здесь: https://stackoverflow.com/questions/783 ... ng-checkpo
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»