Een model serveren
Modeldeployment is een andere belangrijke stap in de ML-lifecycle. De MLflow command-line interface bevat een commando om modellen te serveren. Modellen kunnen met MLflow worden gedeployed vanaf het lokale bestandssysteem, vanuit MLflow Tracking en vanaf verschillende cloudproviders zoals AWS S3.
Om een model vanuit MLflow Tracking te serveren met zijn run_id, welk van de volgende commando’s gebruik je om het model te serveren?
Deze oefening maakt deel uit van de cursus
Introductie tot MLflow
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen