Я нашел несколько документации и инструментов для преобразования модели ONNX в Float16, но ни один из них не поддерживает преобразование в BFLOAT16. < /p>
Модель первоначально обучается с использованием Tensorflow и преобразуется в ONNX. У меня нет доступа к исходному коду/моделям TensorFlow. Будет ли это квантование «разбавить» обученные веса модели?
Подробнее здесь: https://stackoverflow.com/questions/795 ... o-bfloat16
Как преобразовать модель ONNX Float32 в BFLOAT16? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Невозможно передать kwargs в аргументы torch.onnx.export в Pytorch ONNX.
Anonymous » » в форуме Python - 0 Ответы
- 41 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Поставщик выполнения CUDA в ONNX допускает ошибку при объединении TensorRT с ONNX
Anonymous » » в форуме Python - 0 Ответы
- 35 Просмотры
-
Последнее сообщение Anonymous
-