Aan de slagGa gratis aan de slag

Een workflow met meerdere stappen maken: Model Evaluation

In deze oefening maak je de Model Evaluation-stap van onze meerstapsworkflow om een deel van de ML-lifecycle te beheren. Je gebruikt de run()-methode uit de MLflow Projects-module en stelt het entrypoint in op model_evaluation. Vervolgens neem je de model_engineering_run_id als parameter, die als output in de vorige oefening is gegenereerd, en geef je die door aan het commando.

Het MLproject dat in de vorige stap is gemaakt, is beschikbaar in de IPython-shell met print(MLproject).

De mlflow-module is geïmporteerd.

Deze oefening maakt deel uit van de cursus

Introductie tot MLflow

Cursus bekijken

Oefeninstructies

  • Ken de run()-methode uit de MLflow Projects-module toe aan model_evaluation.
  • Stel het entrypoint-argument in op "model_evaluation".
  • Stel een parameter in met de naam "run_id" met de waarde model_engineering_run_id.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Set the MLflow Projects run method
model_evaluation = ____.____.____(
    uri="./",
    # Set the entry point to model_evaluation
    ____="____",
  	# Set the parameter run_id to the run_id output of previous step
    parameters={
        "____": ____,
    },
    env_manager="local"
)

print(model_evaluation.get_status())
Code bewerken en uitvoeren