Aan de slagGa gratis aan de slag

Genetische hyperparameter-tuning met TPOT

Je gaat een eenvoudig voorbeeld van genetische hyperparameter-tuning doen. TPOT is een zeer krachtige bibliotheek met veel mogelijkheden. In deze les raak je slechts het oppervlak, maar we raden je zeker aan om later zelf verder te verkennen.

Dit is een heel klein voorbeeld. In de praktijk is TPOT bedoeld om vele uren te draaien om het beste model te vinden. Je zou een veel grotere populatie- en nageslachtgrootte gebruiken en honderden generaties doorlopen om een goed model te vinden.

Je maakt de estimator, past deze op de trainingsdata en scoort daarna op de testdata.

Voor dit voorbeeld willen we gebruiken:

  • 3 generaties
  • 4 als populatiegrootte
  • 3 nakomelingen in elke generatie
  • accuracy voor scoring

Een random_state van 2 is ingesteld voor consistente resultaten.

Deze oefening maakt deel uit van de cursus

Hyperparameter Tuning in Python

Cursus bekijken

Oefeninstructies

  • Ken de waarden uit de context toe aan de invoerargumenten voor tpot_clf.
  • Maak de tpot_clf-classifier met de juiste argumenten.
  • Fit de classifier op de trainingsdata (X_train & y_train zijn beschikbaar in je werkruimte).
  • Gebruik de getrainde classifier om te scoren op de testset (X_test & y_test zijn beschikbaar in je werkruimte).

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____

# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
                          offspring_size=____, scoring=____,
                          verbosity=2, random_state=2, cv=2)

# Fit the classifier to the training data
____.____(____, ____)

# Score on the test set
print(____.____(____, ____))
Code bewerken en uitvoeren