У меня около 22 000 строк обучающих данных.
Я использую train_test_split для получения данных обучения и тестирования.
Я запускаю подгонку, а затем получаю некоторое представление о том, насколько хорошо прошла подгонка, используя различные методы или оценки.< /p>
Я хочу, чтобы подобранная модель вернулась к 22 000 строк и сделала прогноз на их основе, как если бы она никогда не видела их раньше.
Однако, когда я это делаю, регрессоры или классификаторы получают каждая отдельная строка правильна на 100 %, что не может быть правдой, учитывая, что в большинстве случаев лучшее, что я могу ожидать, — это 75 % и т. д.
Есть ли у оценщиков какой-то кэш обучающих данных? Как удалить кеш, но сохранить обученную модель?
Подробнее здесь: https://stackoverflow.com/questions/791 ... ining-data
Классификаторы и регрессоры scikit-learn, кэширующие данные обучения? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Подача глубоких функций в классификаторы машинного обучения (случайный лес)
Anonymous » » в форуме Python - 0 Ответы
- 21 Просмотры
-
Последнее сообщение Anonymous
-