Использование MLFLOW.Evaluate Best Practice для оценки модели в данных DataBricks?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Использование MLFLOW.Evaluate Best Practice для оценки модели в данных DataBricks?

Сообщение Anonymous »

Я пытаюсь оценить эффективность модели случайной регрессии леса в данных Databricks. Я знаком с Scikit-Learn, но новичок в DataBricks и Mlflow, поэтому я не уверен, что я делаю это лучше всего. Я буду опираться на это в будущем, регистрируя артефакты для таких вещей, как импорт функций. < /P>
with mlflow.start_run() as run:

#Train the model
model = RandomForestRegressor(random_state = 1)
model.fit(X = x_train, y = y_train)

#Use the model to make some test predictions
train_prediction = model.predict(X = x_train)
test_prediction = model.predict(X = x_test)

#Calculate metrics
test_mae = mean_absolute_error(y_true = y_test, y_pred = test_prediction)
test_mse = mean_squared_error(y_true = y_test, y_pred = test_prediction)
test_r2 = r2_score(y_true = y_test, y_pred = test_prediction)
test_rmse = np.sqrt(test_mse)

#Log metrics to the current run
mlflow.log_metrics({"test_mae": test_mae, "test_mse": test_mse, "test_r2": test_r2, "test_rmse": test_rmse})

#Log the model to the current run
signature = infer_signature(x_train, train_prediction)
mlflow.sklearn.log_model(sk_model = model, artifact_path = "my_model", signature = signature)
< /code>
Это работает нормально. Тем не менее, все документы Mlflow, которые я видел, делают вещи по -другому, больше похоже на это: < /p>
#Train the model
model = RandomForestRegressor(random_state = 1)
model.fit(X = x_train, y = y_train)

#Infer the model's signature
train_prediction = model.predict(X = x_train)
signature = infer_signature(x_train, train_prediction)

#Construct evaluation dataset
evaluation_df = x_test
evaluation_df["target"] = y_test

#Log the model
with mlflow.start_run() as run:
model_info = mlflow.sklearn.log_model(sk_model = model, artifact_path = "my_model", signature = signature)
result = mlflow.evaluate(
model_info.model_uri,
evaluation_df,
targets = "target",
model_type = "regressor",
evaluators = ["default"],
)
< /code>
Я не понимаю, прочитав документы, какие преимущества это дает. Я пропускаю, не используя mlflow.evaluate? Или оба метода одинаково достоверные способы получить одинаковый результат?
Любой совет высоко ценится!

Подробнее здесь: https://stackoverflow.com/questions/797 ... databricks
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение
  • Использование MLFLOW.Evaluate Best Practice для оценки модели в данных DataBricks?
    Anonymous » » в форуме Python
    0 Ответы
    6 Просмотры
    Последнее сообщение Anonymous
  • Использование MLFLOW.Evaluate Best Practice для оценки модели в данных DataBricks?
    Anonymous » » в форуме Python
    0 Ответы
    2 Просмотры
    Последнее сообщение Anonymous
  • Best Practice Springs Kafka Consumer: какое сообщение должен получить потребитель
    Anonymous » » в форуме JAVA
    0 Ответы
    15 Просмотры
    Последнее сообщение Anonymous
  • Java Best Practice Testing с Junit
    Anonymous » » в форуме JAVA
    0 Ответы
    7 Просмотры
    Последнее сообщение Anonymous
  • Ошибка MlFlow Databricks: истекло время ожидания при оценке модели. Убедитесь, что модель оценивается в течение тайм-аут
    Anonymous » » в форуме Python
    0 Ответы
    92 Просмотры
    Последнее сообщение Anonymous

Вернуться в «Python»