Я использую поиск сетки, чтобы соответствовать параметрам модели машинного обучения. -Лалерин.org/stable/modules/generated/sklearn.grid_search.gridsearchcv.html)
from sklearn import svm, grid_search, datasets, cross_validation
# getting data
iris = datasets.load_iris()
# grid of parameters
parameters = {'kernel':('linear', 'poly'), 'C':[1, 10]}
# predictive model (support vector machine)
svr = svm.SVC()
# cross validation procedure
mycv = cross_validation.StratifiedKFold(iris.target, n_folds = 2)
# grid search engine
clf = grid_search.GridSearchCV(svr, parameters, mycv)
# fitting engine
clf.fit(iris.data, iris.target)
< /code>
Однако, когда я смотрю на clf.estimator < /code>, я получаю следующее: < /p>
SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0, degree=3, gamma=0.0,
kernel='rbf', max_iter=-1, probability=False, random_state=None,
shrinking=True, tol=0.001, verbose=False)
< /code>
Как я получил ядро RBF? Я не указал это как вариант в моих параметрах. < /p>
Что происходит? > П.С. Я использую версию «0,15-гит» для Sklearn.
[b] addendum [/b]: я заметил, что clf.best_estimator _
дает правильный выход. Итак, что такое clf.estimator ?
Я использую поиск сетки, чтобы соответствовать параметрам модели машинного обучения. -Лалерин.org/stable/modules/generated/sklearn.grid_search.gridsearchcv.html)
Существует ли простой/уже существующий способ выполнить поиск по сетке в scikit-learn, а затем автоматически вернуть k самых эффективных моделей или автоматически усреднить их результаты? Я намерен таким образом попытаться уменьшить переобучение. Я...