Я работаю над задачей оценки свинца в студии Machine Learning Machine Learning и нуждаюсь в помощи в интеграции модели интерпретируемости в мое развернутое решение. фон
Импортированные данные и обученные модели с использованием следующих компонентов дизайнера:
. Модель < /li>
Оценить модель < /li>
< /ul>
< /li>
Успешно развернула модель как веб -службу; Я могу вызвать API и получить прогнозы для новых данных о ведущих. API. < /P>
< /li>
Я попытался использовать функции интерпретации model < /strong> в Azure ML: < /p>
подход 1 < /strong>:
ecleder, но в использовании, но в «Br />». Ошибка: < /p>
NotADirectoryError: [Errno 20] Not a directory: 'model.pkl/model.pkl'
подход 2 [/b]:
Пробовал зарегистрировать подготовленную модель программно с помощью локальных данных и запустить объяснитель, но столкнулся с другой ошибкой на этапе регистрации/br/br/br/>
explainer = TabularExplainer(
model=clf,
initialization_examples=new_lead,
features=new_lead.columns.tolist(),
classes=[0, 1]
)
print('Done')
# The Below code is not returning the explanation. No error as well.
explanation = explainer.explain_local(new_lead)
Вопросы
Как я могу генерировать объяснения того, почему лидерство классифицируется как выигранный или теряется с использованием обученной модели в дизайнере Azure ML? Объяснения через API REST? Развернутые модели, обученные дизайнером (включая, как правильно загрузить модель и запустить форму или аналогичные объяснения)? Данные < /p>
import pandas as pd
import numpy as np
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline
import joblib
# Step 1: Generate dummy lead scoring dataset
df = pd.DataFrame({
"company_size": np.random.randint(10, 500, 100),
"annual_revenue": np.random.randint(100000, 10000000, 100),
"engagement_score": np.random.randint(0, 100, 100),
"last_contact_days_ago": np.random.randint(1, 60, 100),
"qualified": np.random.choice([0, 1], 100)
})
X = df.drop(columns=["qualified"])
y = df["qualified"]
# Step 2: Train model with pipeline
pipeline = Pipeline([
("scaler", StandardScaler()),
("clf", LogisticRegression())
])
pipeline.fit(X, y)
# Step 3: Save the model
joblib.dump(pipeline, "model.pkl")
print('Done')
# Step 4: Register model in Azure ML
from azureml.core import Workspace, Model
# Load workspace from config
ws = Workspace.from_config()
# Step 5: Load model back from registry
import os
model = Model(ws, name="lead-logreg-vai1")
model_dir = model.download(exist_ok=True)
print("model_dir:", model_dir)
clf = joblib.load(model_dir)
print("Loaded model type:", type(clf))
# Step 6: Make prediction and interpret with TabularExplainer
from interpret.ext.blackbox import TabularExplainer
# New lead sample
new_lead = pd.DataFrame([{
"company_size": 10,
"annual_revenue": 20000,
"engagement_score": 100,
"last_contact_days_ago": 100
}])
# Predict probability and class
proba = clf.predict_proba(new_lead)
pred = clf.predict(new_lead)
print(f"Predicted probability: {proba[0][1]:.2f}, Class: {pred[0]}")
explainer = TabularExplainer(
model=clf,
initialization_examples=new_lead,
features=new_lead.columns.tolist(),
classes=[0, 1]
)
print('Done')
# The below code is not returning the explanation. No error as well.
explanation = explainer.explain_local(new_lead)
Может ли кто -нибудь предоставить руководство или указать мне на рабочий пример для достижения следующего в Azure ML Designer :
способ получить объяснения по прогнозу для или нот -блокно ошибки, с которыми я сталкиваюсь с объяснением .
Я работаю над задачей оценки свинца в студии [b] Machine Learning Machine Learning [/b] и нуждаюсь в помощи в интеграции [b] модели интерпретируемости [/b] в мое развернутое решение. [b] фон [/b] [list] [*]
Импортированные данные и обученные модели с использованием следующих компонентов дизайнера:
. Модель < /li> Оценить модель < /li> < /ul> < /li> Успешно развернула модель как веб -службу; Я могу вызвать API и получить прогнозы для новых данных о ведущих. API. < /P> < /li> Я попытался использовать функции интерпретации model < /strong> в Azure ML: < /p>
подход 1 < /strong>:
ecleder, но в использовании, но в «Br />». Ошибка: < /p> [code]NotADirectoryError: [Errno 20] Not a directory: 'model.pkl/model.pkl' [/code]
[*] подход 2 [/b]:
Пробовал зарегистрировать подготовленную модель программно с помощью локальных данных и запустить объяснитель, но столкнулся с другой ошибкой на этапе регистрации/br/br/br/>
# The Below code is not returning the explanation. No error as well. explanation = explainer.explain_local(new_lead)
[/code] [b] Вопросы [/b]
Как я могу генерировать объяснения того, почему лидерство классифицируется как выигранный или теряется с использованием обученной модели в дизайнере Azure ML? Объяснения через API REST? Развернутые модели, обученные дизайнером (включая, как правильно загрузить модель и запустить форму или аналогичные объяснения)? Данные < /p> [code]import pandas as pd import numpy as np from sklearn.linear_model import LogisticRegression from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.pipeline import Pipeline import joblib
X = df.drop(columns=["qualified"]) y = df["qualified"]
# Step 2: Train model with pipeline pipeline = Pipeline([ ("scaler", StandardScaler()), ("clf", LogisticRegression()) ])
pipeline.fit(X, y)
# Step 3: Save the model joblib.dump(pipeline, "model.pkl") print('Done')
# Step 4: Register model in Azure ML from azureml.core import Workspace, Model
# Load workspace from config ws = Workspace.from_config()
# Step 5: Load model back from registry import os model = Model(ws, name="lead-logreg-vai1") model_dir = model.download(exist_ok=True) print("model_dir:", model_dir)
clf = joblib.load(model_dir) print("Loaded model type:", type(clf))
# Step 6: Make prediction and interpret with TabularExplainer from interpret.ext.blackbox import TabularExplainer
# New lead sample new_lead = pd.DataFrame([{ "company_size": 10, "annual_revenue": 20000, "engagement_score": 100, "last_contact_days_ago": 100 }])
# Predict probability and class proba = clf.predict_proba(new_lead) pred = clf.predict(new_lead) print(f"Predicted probability: {proba[0][1]:.2f}, Class: {pred[0]}")
# The below code is not returning the explanation. No error as well. explanation = explainer.explain_local(new_lead) [/code] Может ли кто -нибудь предоставить руководство или указать мне на рабочий пример для достижения следующего в [b] Azure ML Designer [/b]:
способ получить [b] объяснения по прогнозу [/b] для [b] или нот -блокно ошибки, с которыми я сталкиваюсь с объяснением [/b]. [/list]
Привет всем,
Я работаю над задачей оценки потенциальных клиентов в Stude Learning Studio и нуждается в помощи в интеграции модели интерпретации в мое развернутое решение. Пожалуйста, найдите подробности ниже:
Я работаю над задачей оценки ведущего в студии машинного обучения Azure и нуждаюсь в помощи в интеграции интерпретации модели в мое развернутое решение. Я написал следующий код в ноутбуке Azure ML в качестве основного примера для регистрации модели,...
У меня есть модель бинарного прогнозирования, обученная алгоритмом логистической регрессии. Я хочу знать, какие функции (предикторы) более важны для решения положительного или отрицательного класса. Я знаю, что есть параметр coef _ , который...
:8: RuntimeWarning: в журнале обнаружено деление на ноль стоимость=(-y *np.log(g_i) - (1-y )*np.log(1-g_i)) :8: RuntimeWarning: в double_scalars обнаружено недопустимое значение стоимость=(-y *np.log(g_i) - (1-y )*np.log(1-g_i)) Нэн Это результат,...
Я использую метод LogisticReprofit() в scikit-learn для сильно несбалансированного набора данных. Я даже переключил функцию class_weight на автоматический.
Я знаю, что в логистической регрессии можно узнать, каково пороговое значение. для...