IniziaInizia gratis

Ottimizzazione genetica degli iperparametri con TPOT

Ora affronterai un semplice esempio di ottimizzazione genetica degli iperparametri. TPOT è una libreria molto potente con tantissime funzionalità. In questa lezione ne vedrai solo un assaggio, ma ti incoraggiamo caldamente a esplorarla in autonomia.

Questo è un esempio molto piccolo. Nella pratica, TPOT è pensato per essere eseguito per molte ore per trovare il modello migliore. Useresti una popolazione e un numero di discendenti molto più grandi, oltre a centinaia di generazioni, per arrivare a un buon modello.

Creerai l'estimatore, lo adatterai ai dati di training e poi calcolerai lo score sui dati di test.

Per questo esempio vogliamo usare:

  • 3 generazioni
  • 4 come dimensione della popolazione
  • 3 discendenti per ciascuna generazione
  • accuracy per lo scoring

È stato impostato un random_state pari a 2 per la consistenza dei risultati.

Questo esercizio fa parte del corso

Ottimizzazione degli iperparametri in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Assegna agli input di tpot_clf i valori indicati nel contesto.
  • Crea il classificatore tpot_clf con gli input corretti.
  • Adatta il classificatore ai dati di training (X_train e y_train sono disponibili nel tuo workspace).
  • Usa il classificatore addestrato per calcolare lo score sul set di test (X_test e y_test sono disponibili nel tuo workspace).

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____

# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
                          offspring_size=____, scoring=____,
                          verbosity=2, random_state=2, cv=2)

# Fit the classifier to the training data
____.____(____, ____)

# Score on the test set
print(____.____(____, ____))
Modifica ed esegui il codice