LoslegenKostenlos loslegen

Ein Modell serven

Die Bereitstellung von Modellen ist ein weiterer wichtiger Schritt im ML-Lebenszyklus. Die MLflow-Kommandozeilenschnittstelle enthält einen Befehl zum Serven von Modellen. Modelle können mit MLflow vom lokalen Dateisystem, aus MLflow Tracking und von mehreren Cloud-Anbietern wie AWS S3 bereitgestellt werden.

Um ein Modell aus MLflow Tracking mithilfe seiner run_id zu serven: Welcher der folgenden Befehle wird verwendet, um das Modell bereitzustellen?

Diese Übung ist Teil des Kurses

Einführung in MLflow

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten