Я хочу реализовать вывод модели onnx в своем собственном коде C, но на некоторых уровнях результат между C и ONNX имеет 1 ошибку, например C — 40, а onnx — 41.
Я хочу знать, почему результат numpy равен -87, а результат onnx - -88? ?
При выводе квантовой модели ошибка 1 является фатальной! Суммарная ошибка на многих уровнях может достигать 4-5 (в 8-битных целых числах).
Спасибо:>
тестовый код ниже⬇
onnxruntime==1.19.2 python==3.8
Я хочу реализовать вывод модели onnx в своем собственном коде C, но на некоторых уровнях результат между C и ONNX имеет 1 ошибку, например C — 40, а onnx — 41. Я хочу знать, почему результат numpy равен -87, а результат onnx - -88? ? При выводе квантовой модели ошибка 1 является фатальной! Суммарная ошибка на многих уровнях может достигать 4-5 (в 8-битных целых числах). Спасибо:> тестовый код ниже⬇ onnxruntime==1.19.2 python==3.8 [code]import onnx from onnx import helper, TensorProto, numpy_helper import numpy as np import onnxruntime as ort
model = helper.make_model(graph, producer_name='onnx-qlinearadd-fixed-params', opset_imports=[ helper.make_opsetid(domain='ai.onnx', version=opset_version_ai_onnx), helper.make_opsetid(domain='com.microsoft', version=opset_version_com_microsoft)]) onnx.save(model, 'qlinearadd_fixed_params_model.onnx') print("ONNX MODEL save 'qlinearadd_fixed_params_model.onnx'")
C_output = outputs[0] print("output C:", C_output) [/code] Результат тестового кода: [code]ONNX MODEL save 'qlinearadd_fixed_params_model.onnx' [-87.49999529] [-87] output C: [[[[-88]]]] [/code] но я думаю, что -87 — это то, что я хочу получить.
Я хочу экспортировать модель Pytorch в формат onnx. Вот модель:
from transformers import AutoProcessor, PaliGemmaForConditionalGeneration, BitsAndBytesConfig
При переходе от CUDA ONNX к коду TensorRT на Python
возникла эта ошибка при запуске модели из ONNX (с CUDA Provider) и модели из TensorRT в одном и том же коде.
получены эти ошибки
2023-11-26 11:46:35.483254243 Некоторым узлам не были назначены...
Я пытаюсь экспортировать свою модель Pytorch в формат ONNX, обеспечивая, чтобы размер партии оставался динамическим. Вот код, который я использую:
import torch # Import PyTorch library
# Create a dummy input tensor of shape (1, 3, 256, 256) and...
Я пытаюсь экспортировать свою модель Pytorch в формат ONNX, обеспечивая, чтобы размер партии оставался динамическим. Результатом всегда является неисправность сегментации (ядро сброшено) Вот код, который я использую:
import torch # Import PyTorch...