Я пытаюсь выяснить, как создать матрицу путаницы с Cross_validate. Я могу распечатать результаты с кодом, который у меня есть до сих пор. < /P>
# Instantiating model
model = DecisionTreeClassifier()
#Scores
scoring = {'accuracy' : make_scorer(accuracy_score),
'precision' : make_scorer(precision_score),
'recall' : make_scorer(recall_score),
'f1_score' : make_scorer(f1_score)}
# 10-fold cross validation
scores = cross_validate(model, X, y, cv=10, scoring=scoring)
print("Accuracy (Testing): %0.2f (+/- %0.2f)" % (scores['test_accuracy'].mean(), scores['test_accuracy'].std() * 2))
print("Precision (Testing): %0.2f (+/- %0.2f)" % (scores['test_precision'].mean(), scores['test_precision'].std() * 2))
print("Recall (Testing): %0.2f (+/- %0.2f)" % (scores['test_recall'].mean(), scores['test_recall'].std() * 2))
print("F1-Score (Testing): %0.2f (+/- %0.2f)" % (scores['test_f1_score'].mean(), scores['test_f1_score'].std() * 2))
< /code>
Но я пытаюсь доставить эти данные в матрицу путаницы. Я могу сделать матрицу путаницы, используя Cross_val_predict -< /p>
y_train_pred = cross_val_predict(model, X, y, cv=10)
confusion_matrix(y, y_train_pred)
< /code>
Это здорово, но, поскольку он выполняет свою собственную перекрестную проверку, результаты не совпадают. Я просто ищу способ произвести оба с соответствующими результатами.
Подробнее здесь: https://stackoverflow.com/questions/656 ... s-validate
Создание матрицы путаницы с Cross_validate ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Рассчитайте точность, полноту, точность и сбалансированную точность из матрицы путаницы.
Anonymous » » в форуме Python - 0 Ответы
- 38 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Несоответствие между результатами перекрестной проверки и метриками матрицы путаницы
Anonymous » » в форуме Python - 0 Ответы
- 24 Просмотры
-
Последнее сообщение Anonymous
-