Réglage génétique des hyperparamètres avec TPOT
Vous allez réaliser un exemple simple de réglage génétique des hyperparamètres. TPOT est une bibliothèque très puissante qui propose de nombreuses fonctionnalités. Dans cette leçon, vous n’en effleurez que la surface, et nous vous encourageons vivement à explorer davantage par vous-même.
Ceci est un très petit exemple. En pratique, TPOT est conçu pour tourner pendant de nombreuses heures afin de trouver le meilleur modèle. Vous utiliseriez une population et un nombre de descendants bien plus importants, ainsi que des centaines de générations, pour obtenir un bon modèle.
Vous allez créer l’estimateur, l’ajuster sur les données d’entraînement, puis évaluer sa performance sur les données de test.
Pour cet exemple, nous souhaitons utiliser :
- 3 générations
- 4 pour la taille de la population
- 3 descendants à chaque génération
- accuracy comme métrique d’évaluation
Un random_state de 2 a été défini pour garantir la reproductibilité des résultats.
Cet exercice fait partie du cours
Optimisation des hyperparamètres en Python
Instructions
- Affectez aux paramètres de
tpot_clfles valeurs indiquées dans le contexte. - Créez le classifieur
tpot_clfavec les bons arguments. - Ajustez le classifieur sur les données d’entraînement (
X_trainety_trainsont disponibles dans votre espace de travail). - Utilisez le classifieur ajusté pour calculer le score sur l’ensemble de test (
X_testety_testsont disponibles dans votre espace de travail).
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____
# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
offspring_size=____, scoring=____,
verbosity=2, random_state=2, cv=2)
# Fit the classifier to the training data
____.____(____, ____)
# Score on the test set
print(____.____(____, ____))