Ottimizzazione genetica degli iperparametri con TPOT
Ora affronterai un semplice esempio di ottimizzazione genetica degli iperparametri. TPOT è una libreria molto potente con tantissime funzionalità. In questa lezione ne vedrai solo un assaggio, ma ti incoraggiamo caldamente a esplorarla in autonomia.
Questo è un esempio molto piccolo. Nella pratica, TPOT è pensato per essere eseguito per molte ore per trovare il modello migliore. Useresti una popolazione e un numero di discendenti molto più grandi, oltre a centinaia di generazioni, per arrivare a un buon modello.
Creerai l'estimatore, lo adatterai ai dati di training e poi calcolerai lo score sui dati di test.
Per questo esempio vogliamo usare:
- 3 generazioni
- 4 come dimensione della popolazione
- 3 discendenti per ciascuna generazione
- accuracy per lo scoring
È stato impostato un random_state pari a 2 per la consistenza dei risultati.
Questo esercizio fa parte del corso
Ottimizzazione degli iperparametri in Python
Istruzioni dell'esercizio
- Assegna agli input di
tpot_clfi valori indicati nel contesto. - Crea il classificatore
tpot_clfcon gli input corretti. - Adatta il classificatore ai dati di training (
X_trainey_trainsono disponibili nel tuo workspace). - Usa il classificatore addestrato per calcolare lo score sul set di test (
X_testey_testsono disponibili nel tuo workspace).
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____
# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
offspring_size=____, scoring=____,
verbosity=2, random_state=2, cv=2)
# Fit the classifier to the training data
____.____(____, ____)
# Score on the test set
print(____.____(____, ____))