Ein Modell serven
Die Bereitstellung von Modellen ist ein weiterer wichtiger Schritt im ML-Lebenszyklus. Die MLflow-Kommandozeilenschnittstelle enthält einen Befehl zum Serven von Modellen. Modelle können mit MLflow vom lokalen Dateisystem, aus MLflow Tracking und von mehreren Cloud-Anbietern wie AWS S3 bereitgestellt werden.
Um ein Modell aus MLflow Tracking mithilfe seiner run_id zu serven: Welcher der folgenden Befehle wird verwendet, um das Modell bereitzustellen?
Diese Übung ist Teil des Kurses
Einführung in MLflow
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
Übung starten