У меня около 22 000 строк обучающих данных.
Я использую train_test_split для получения данных обучения и тестирования.
Я запускаю подгонку, а затем получаю некоторое представление о том, насколько хорошо прошла подгонка, используя различные методы или оценки.< /p>
Тогда я хочу, чтобы подобранная модель вернулась к 22 000 строк и прогнозировала их, как если бы она никогда не видела их раньше.
Однако, когда я это сделаю регрессоры или классификаторы получают каждую строку на 100% правильно, что не может быть правильным, учитывая, что в большинстве случаев лучшее, что я могу ожидать, — это 75% и т. д.
Есть ли у оценщиков какой-то кэш обучающих данных ? Как удалить кеш, но сохранить обученную модель?
Спасибо
Подробнее здесь: https://stackoverflow.com/questions/791 ... ining-data
Классификаторы и регрессоры scikit-learn, кэширующие данные обучения? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Подача глубоких функций в классификаторы машинного обучения (случайный лес)
Anonymous » » в форуме Python - 0 Ответы
- 21 Просмотры
-
Последнее сообщение Anonymous
-