Правильный способ обработки сильно несбалансированных данных — двоичная классификацияPython

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Правильный способ обработки сильно несбалансированных данных — двоичная классификация

Сообщение Anonymous »

У меня действительно большой набор данных с 60 миллионами строк и 11 функций.
Это очень дисбалансированный набор данных, 20: 1 (сигнал: фон).
Как я видел, есть два способа заняться Эта проблема: < /p>
сначала: недостаточная состава /перегрев. > Если я сделаю недостаточную выборку перед разделением тестирования поезда, я теряю много данных.
, но что более важно, если я тренирую модель на сбалансированном наборе данных, я теряю информацию о частоте данных моего сигнала ( Допустим, частота доброкачественной опухоли по сравнению с злокачественными), и поскольку модель обучена и оценена, модель будет работать хорошо. Но если когда -нибудь в будущем я собираюсь попробовать свою модель по новым данным, это будет плохо, потому что реальные данные несбалансированы. в разделе «В разделе« В связи с тем », потому что он будет обучен сбалансированным данным, но подтвержден/протестирован на дисбалансированном. Xbg, случайный лес, логистическая регрессия?
Итак, я ищу объяснение и идею для способа работы над этой проблемой.

Подробнее здесь: https://stackoverflow.com/questions/594 ... sification
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»