Могу ли я уменьшить числовую точность метода Scikit-Learn's Pregict_proba ()?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Могу ли я уменьшить числовую точность метода Scikit-Learn's Pregict_proba ()?

Сообщение Anonymous »

Вопрос, лежащий в основе вопроса, заключается в том, что я стремлюсь уменьшить время выполнения и вычислительных ресурсов, затраченных моей моделью Scikit-Learn при использовании ее в производстве. Есть ли способ, чтобы метод использовал меньше ресурсов, не выплевывая результат на 16 десятичных десятиц точности, например, но в 8 десятичных десятиках? Сравнение, о котором я думаю, это квантование LLMS.
Закругление после этого не достигает этого, поскольку Predict_proba () , где я столкнулся с узким местом, уже выполнил. Классификатор XGB (который был обучен с использованием Scikit-Learn) и подготовьте данные: < /p>
import pandas as pd
import xgboost as xgb

clf = xgb.XGBClassifier()
clf.load_model('model_xgb.json')
X = pd.get_dummies(X, dtype=int)

Тогда я запускаю прогноз_Проба () в этом классификаторе
preds = clf.predict_proba(X)[:,1]


Подробнее здесь: https://stackoverflow.com/questions/797 ... oba-method
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»