Вот соответствующая часть моего кода
Код: Выделить всё
X_custom_1 = np.arange(-5, 5, 0.01).reshape(1000, 1)
X_custom_2 = X_custom_1**2
X_custom = np.append(X_custom_1, X_custom_2, axis=1)
y_pred = model.predict(X_custom)
# Debugging
print(X_custom_1.shape, X_custom_2.shape) # Output: (1000, 1) (1000, 1)
print(X_custom.shape, y_pred.shape) # Output: (1000, 2) (1000, 1)
# Plotting
_, ax = plt.subplots(ncols=2, figsize=(19, 7))
ax[0].scatter(X, y) # Original data: (50, 1) (50, )
ax[0].plot(X_custom[:, 0], y_pred, color='red') # Model predictions
график
Мой вопрос: Почему имеет смысл строить прогнозы против только первого признака входной матрицы, а не против использования всех признаков? Это потому, что линейный график по своей сути работает только для одного объекта?
Любые разъяснения приветствуются.
Подробнее здесь: https://stackoverflow.com/questions/793 ... ti-feature