Llama-3.2-1B-Instruct генерирует противоречивые выходные данныеPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Llama-3.2-1B-Instruct генерирует противоречивые выходные данные

Сообщение Anonymous »

Я хочу использовать модель Llama-3.2-1B-Instruct, и хотя я установил «temperature»: 0.0, «top_p»:0.0 и «top_k»:0, она все равно генерирует непоследовательный вывод. Вот как выглядит мой конвейер:

Код: Выделить всё

pipe = pipeline(
"text-generation",
model=model_id,
torch_dtype=torch.bfloat16,
device_map="mps",
model_kwargs={"temperature": 0.0,
"do_sample":True,
"top_p":0.0,
"top_k":0,},
)
Есть идеи, как решить эту проблему?

Подробнее здесь: https://stackoverflow.com/questions/792 ... ent-output
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»