Een workflow met meerdere stappen maken: Model Evaluation
In deze oefening maak je de Model Evaluation-stap van onze meerstapsworkflow om een deel van de ML-lifecycle te beheren. Je gebruikt de run()-methode uit de MLflow Projects-module en stelt het entrypoint in op model_evaluation. Vervolgens neem je de model_engineering_run_id als parameter, die als output in de vorige oefening is gegenereerd, en geef je die door aan het commando.
Het MLproject dat in de vorige stap is gemaakt, is beschikbaar in de IPython-shell met print(MLproject).
De mlflow-module is geïmporteerd.
Deze oefening maakt deel uit van de cursus
Introductie tot MLflow
Oefeninstructies
- Ken de
run()-methode uit de MLflow Projects-module toe aanmodel_evaluation. - Stel het entrypoint-argument in op
"model_evaluation". - Stel een parameter in met de naam
"run_id"met de waardemodel_engineering_run_id.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Set the MLflow Projects run method
model_evaluation = ____.____.____(
uri="./",
# Set the entry point to model_evaluation
____="____",
# Set the parameter run_id to the run_id output of previous step
parameters={
"____": ____,
},
env_manager="local"
)
print(model_evaluation.get_status())