Вопрос, лежащий в основе вопроса, заключается в том, что я стремлюсь уменьшить время выполнения и вычислительных ресурсов, затраченных моей моделью Scikit-Learn при использовании ее в производстве. Есть ли способ, чтобы метод использовал меньше ресурсов, не выплевывая результат на 16 десятичных десятиц точности, например, но в 8 десятичных десятиках? Сравнение, о котором я думаю, это квантование LLMS.
Закругление после этого не достигает этого, поскольку Predict_proba () , где я столкнулся с узким местом, уже выполнил. Классификатор XGB (который был обучен с использованием Scikit-Learn) и подготовьте данные: < /p>
import pandas as pd
import xgboost as xgb
clf = xgb.XGBClassifier()
clf.load_model('model_xgb.json')
X = pd.get_dummies(X, dtype=int)
Тогда я запускаю прогноз_Проба () в этом классификаторе
preds = clf.predict_proba(X)[:,1]
Подробнее здесь: https://stackoverflow.com/questions/797 ... oba-method
Могу ли я уменьшить числовую точность метода Scikit-Learn's Pregict_proba ()? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Могу ли я уменьшить числовую точность метода Scikit-Learn's Pregict_proba ()?
Anonymous » » в форуме Python - 0 Ответы
- 2 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Могу ли я уменьшить числовую точность метода Scikit-Learn's Pregict_proba ()?
Anonymous » » в форуме Python - 0 Ответы
- 3 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Могу ли я уменьшить числовую точность метода Scikit-Learn's Pregict_proba ()?
Anonymous » » в форуме Python - 0 Ответы
- 4 Просмотры
-
Последнее сообщение Anonymous
-