CommencerCommencer gratuitement

Servir un modèle

Le déploiement de modèles est une autre étape importante du cycle de vie du Machine Learning. L’interface en ligne de commande MLflow inclut une commande pour servir des modèles. Les modèles peuvent être déployés avec MLflow depuis le système de fichiers local, depuis MLflow Tracking et depuis plusieurs fournisseurs cloud comme AWS S3.

Pour servir un modèle depuis MLflow Tracking à l’aide de son run_id, laquelle des commandes suivantes permet de servir le modèle ?

Cet exercice fait partie du cours

Introduction à MLflow

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice