Servir un modèle
Le déploiement de modèles est une autre étape importante du cycle de vie du Machine Learning. L’interface en ligne de commande MLflow inclut une commande pour servir des modèles. Les modèles peuvent être déployés avec MLflow depuis le système de fichiers local, depuis MLflow Tracking et depuis plusieurs fournisseurs cloud comme AWS S3.
Pour servir un modèle depuis MLflow Tracking à l’aide de son run_id, laquelle des commandes suivantes permet de servir le modèle ?
Cet exercice fait partie du cours
Introduction à MLflow
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
Commencer l’exercice