Я проверяю модель для классификации с помощью следующих шагов:
Выбор 75 % моего набора данных для обучения с помощью train_test_split
SequentialFeatureSelector для получения лучших функций
RandomForest для классификации
AdaBoost для улучшения классификации
У меня хорошие оценки, но теперь я хочу использовать 100 % данных для окончательной классификации.
У меня есть несколько вариантов используйте 100% моих данных в качестве обучения:
Создайте новую модель со 100% данных для обучения (просто переустановите модель со 100% данных?)
Создайте перекрестное предсказание с помощью n моделей для каждой складки и объедините их с VotingClassifier.
Используйте напрямую cross_val_predict с первой моделью, но как именно?
Какой метод вы считаете наиболее подходящим и справедливым?
Я проверяю модель для классификации с помощью следующих шагов: [list] [*]Выбор 75 % моего набора данных для обучения с помощью train_test_split [*]SequentialFeatureSelector для получения лучших функций [*]RandomForest для классификации [*]AdaBoost для улучшения классификации [/list] У меня хорошие оценки, но теперь я хочу использовать 100 % данных для окончательной классификации. У меня есть несколько вариантов используйте 100% моих данных в качестве обучения: [list] [*]Создайте новую модель со 100% данных для обучения (просто переустановите модель со 100% данных?) [*]Создайте перекрестное предсказание с помощью n моделей для каждой складки и объедините их с VotingClassifier. [*]Используйте напрямую cross_val_predict с первой моделью, но как именно? [/list] Какой метод вы считаете наиболее подходящим и справедливым?
Я пытаюсь создать модели, поддерживающие многомерный вывод. Одна из моделей, которые я пытаюсь использовать, — это GradientBoostingRegressor, которая изначально не поддерживает многомерный вывод. Существует обходной путь с помощью...
Я пытаюсь создать модели, поддерживающие многомерный вывод. Одна из моделей, которые я пытаюсь использовать, — это GradientBoostingRegressor, которая изначально не поддерживает многомерный вывод. Существует обходной путь с помощью...
Я пытаюсь создать модели, поддерживающие многомерный вывод. Одна из моделей, которые я пытаюсь использовать, — это GradientBoostingRegressor, которая изначально не поддерживает многомерный вывод. Существует обходной путь с помощью...
Я хотел бы сделать некоторые тесты с выходом окончательного скрытого уровня активации нейронной сети с использованием MLPClassifier Sklearn после Fit data.
Например, если я создаю классификатор, предполагая данные x_train с Labels
Я застрял в этом вопросе уже несколько дней, и мне очень нужна помощь. У меня возникла серьезная проблема с производительностью при использовании нескольких распространенных методов машинного обучения в sklearn. Я работаю над проблемой...