Я пытаюсь проверить вывод XGBOOST (booster.predict) для логистической регрессии, что я понимаю расчет выхода через построенные деревья. Я вижу разницу около -1,58 фактора во всех моих результатах. Обмен ниже кода, который я использовал, чтобы проверить то же самое. Я определенно что -то упускаю здесь, поэтому я бы попросил помочь мне понять, что это такое. < /P>
import xgboost as xgb
import pandas as pd
import numpy as np
import math
import random
np.random.seed(1)
data = pd.DataFrame(np.arange(100*4).reshape((100,4)), columns=['a', 'b', 'c', 'd'])
label = pd.DataFrame(np.random.randint(2, size=(100,1)))
data = pd.concat([data,label], ignore_index=True, axis =1)
data = pd.DataFrame(np.arange(100*4).reshape((100,4)), columns=['a', 'b', 'c', 'd'])
features = ['a', 'b', 'c', 'd']
dtrain = xgb.DMatrix(data, label=label)
param = {"max_depth":2, "base_score":0.2, 'objective': 'binary:logistic'}
clf1 = xgb.train(param, dtrain, 2)
clf1.dump_model("base_score1.txt")
e = math.exp(-(-0.143835619-0.123642519+0.2))
print(clf1.predict(dtrain)[0],1/(1+e))
## 0.39109966 0.7583403831446165
## Ideally value of e should be 1.5568930331924702 while here e is 0.31866905973448423
< /code>
Вот сгенерированное дерево < /p>
booster[0]:
0:[a
Подробнее здесь: [url]https://stackoverflow.com/questions/79430043/xgboost-bst-predict-output-not-matching-with-manual-calculation-from-the-text[/url]
Я пытаюсь проверить вывод XGBOOST (booster.predict) для логистической регрессии, что я понимаю расчет выхода через построенные деревья. Я вижу разницу около -1,58 фактора во всех моих результатах. Обмен ниже кода, который я использовал, чтобы проверить то же самое. Я определенно что -то упускаю здесь, поэтому я бы попросил помочь мне понять, что это такое. < /P> [code]import xgboost as xgb import pandas as pd import numpy as np import math import random np.random.seed(1)
data = pd.DataFrame(np.arange(100*4).reshape((100,4)), columns=['a', 'b', 'c', 'd']) label = pd.DataFrame(np.random.randint(2, size=(100,1))) data = pd.concat([data,label], ignore_index=True, axis =1) data = pd.DataFrame(np.arange(100*4).reshape((100,4)), columns=['a', 'b', 'c', 'd']) features = ['a', 'b', 'c', 'd']
e = math.exp(-(-0.143835619-0.123642519+0.2)) print(clf1.predict(dtrain)[0],1/(1+e)) ## 0.39109966 0.7583403831446165 ## Ideally value of e should be 1.5568930331924702 while here e is 0.31866905973448423 < /code> Вот сгенерированное дерево < /p> booster[0]: 0:[a
Я пытаюсь проверить вывод XGBOOST (booster.predict) для логистической регрессии, что я понимаю расчет выхода через построенные деревья. Я вижу разницу около -1,58 фактора во всех моих результатах. Обмен ниже кода, который я использовал, чтобы...
Я использую кера и tensorflow для обучения «простого» многослойного персептрона (MLP) для задачи регрессии, где я использую ошибку среднего квадрата (MSE) в качестве функции потерь. Я обозначаю свои учебные данные как x_train, y_train и мои тестовые...
Я использую кера и tensorflow для обучения «простого» многослойного персептрона (MLP) для задачи регрессии, где я использую ошибку среднего квадрата (MSE) в качестве функции потерь. Я обозначаю свои учебные данные как x_train, y_train и мои тестовые...
Вопрос не в том, как, а в том, почему.
BST эффективно помогают CRUD, нужно ли нам жестко кодировать BST на языке программирования при хранении данных в базе данных?
Например , рассмотрим Django + Postgresql, модели в среде Django автоматически...