Как точно настроить большие языковые модели с использованием трансформаторов, peft и loraPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как точно настроить большие языковые модели с использованием трансформаторов, peft и lora

Сообщение Anonymous »

Я новичок в ИИ. В настоящее время я пытаюсь точно настроить большую модель QWEN2.5-7B, используя алгоритм LORA с библиотекой PEFT и библиотекой Transforming Face. Код следующим образом: < /p>
from transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments
from peft import TaskType,LoraConfig, get_peft_model
from transformers import pipeline
import inspect
import torch
model = AutoModelForCausalLM.from_pretrained(
"/models/Qwen2.5-7B/",
device_map="auto",
torch_dtype=torch.bfloat16
)
tokenizer = AutoTokenizer.from_pretrained("/models/Qwen2.5-7B/")
peft_config = LoraConfig(task_type=TaskType.CAUSAL_LM, inference_mode=True, r=1024, lora_alpha=32, lora_dropout=0.1)
model = get_peft_model(model, peft_config)
model.print_trainable_parameters()
training_args = TrainingArguments(
learning_rate=1e-5,
per_device_train_batch_size=32,
per_device_eval_batch_size=32,
num_train_epochs=2,
weight_decay=0.01,
eval_strategy="epoch",
save_strategy="epoch",
load_best_model_at_end=True,
)

#How to build train set and eval set in code?
#train_set = ?
#eval_set = ?

trainer = Trainer(
model=model,
args=training_args,
train_dataset=train_set,
eval_dataset=eval_set,
tokenizer=tokenizer,
data_collator=data_collator,
compute_metrics=compute_metrics,
)

trainer.train()

inf = pipeline("text-generation", model = model, tokenizer = tokenizer)
print(inf(["what's your name"]))
< /code>
В настоящее время я сталкиваюсь с двумя выпусками: < /p>

model.print_trainable_parameters () Выходы Params: < /p>
0 || Все параметры: 7,938 577,920 || Тренируемый%: 0,0000. < /p>
Я не понимаю, почему количество обучаемых параметров равно нулю. Как мне настроить код? Какие структуры данных
они должны быть и каким контентом они должны включать? < /P>
< /li>
< /ol>

Подробнее здесь: https://stackoverflow.com/questions/795 ... t-and-lora
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»