Как преобразовать модель ONNX Float32 в BFLOAT16?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как преобразовать модель ONNX Float32 в BFLOAT16?

Сообщение Anonymous »

Я нашел несколько документации и инструментов для преобразования модели ONNX в Float16, но ни один из них не поддерживает преобразование в BFLOAT16. < /p>
Модель первоначально обучается с использованием Tensorflow и преобразуется в ONNX. У меня нет доступа к исходному коду/моделям TensorFlow. Будет ли это квантование «разбавить» обученные веса модели?

Подробнее здесь: https://stackoverflow.com/questions/795 ... o-bfloat16
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • ONNX - Как мне преобразовать модель ONNX Float32 в BFLOAT16?
    Anonymous » » в форуме Python
    0 Ответы
    17 Просмотры
    Последнее сообщение Anonymous
  • Как преобразовать модель Safetensors в модель ONNX?
    Anonymous » » в форуме Python
    0 Ответы
    15 Просмотры
    Последнее сообщение Anonymous
  • Как преобразовать модель Safetensors в модель ONNX?
    Anonymous » » в форуме Python
    0 Ответы
    0 Просмотры
    Последнее сообщение Anonymous
  • Невозможно передать kwargs в аргументы torch.onnx.export в Pytorch ONNX.
    Anonymous » » в форуме Python
    0 Ответы
    41 Просмотры
    Последнее сообщение Anonymous
  • Поставщик выполнения CUDA в ONNX допускает ошибку при объединении TensorRT с ONNX
    Anonymous » » в форуме Python
    0 Ответы
    35 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»