- X_train, Y_train = 70%
- X_validation, Y_validation = 20%
- X_test, Y_test = 10%
Код: Выделить всё
X = np.load(....)
Y = np.load(....)
# Split on training and validation
N_validation = int(len(X) * 0.2)
X_train, X_validation, Y_train, Y_validation = train_test_split(X, Y, test_size=N_validation)
# Split Train data once more for Test data
N_test = int(len(X_train) * 0.1)
X_train, X_test, Y_train, Y_test = train_test_split(X_train, Y_train, test_size=N_test)
Как видно из истории, точность/потери при проверке очень похожи на точность/потери при обучении. . Иногда потери при проверке даже ниже, чем потери при обучении.
Что касается последнего утверждения, я прочитал здесь, что это может быть вызвано высоким значением отсева. Это может быть так, поскольку у меня есть отпадающий слой с частотой = 0,3.
Я не понял, проблема это или нет.
Тестируя модель на Тестовом наборе, я получил точность 91%.>
Подробнее здесь: https://stackoverflow.com/questions/656 ... on-history