Genetisches Hyperparameter-Tuning mit TPOT
Du setzt jetzt ein einfaches Beispiel für genetisches Hyperparameter-Tuning um. TPOT ist eine sehr leistungsfähige Bibliothek mit vielen Funktionen. In dieser Lektion kratzt du nur an der Oberfläche, aber wir empfehlen dir sehr, sie in deiner eigenen Zeit weiter zu erkunden.
Dies ist ein sehr kleines Beispiel. In der Praxis lässt man TPOT viele Stunden laufen, um das beste Modell zu finden. Du würdest eine deutlich größere Populations- und Nachkommenzahl sowie Hunderte von Generationen verwenden, um ein gutes Modell zu finden.
Du erstellst den Estimator, passt ihn an die Trainingsdaten an und bewertest ihn anschließend auf den Testdaten.
Für dieses Beispiel möchten wir verwenden:
- 3 Generationen
- 4 in der Populationsgröße
- 3 Nachkommen pro Generation
- accuracy als Scoring-Metrik
Ein random_state von 2 wurde gesetzt, um konsistente Ergebnisse zu erhalten.
Diese Übung ist Teil des Kurses
Hyperparameter-Tuning in Python
Anleitung zur Übung
- Weise die im Kontext genannten Werte den Eingaben für
tpot_clfzu. - Erstelle den
tpot_clf-Classifier mit den korrekten Eingaben. - Fitte den Classifier auf die Trainingsdaten (
X_trainundy_trainsind in deinem Workspace verfügbar). - Nutze den fitten Classifier, um auf dem Testset zu scoren (
X_testundy_testsind in deinem Workspace verfügbar).
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____
# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
offspring_size=____, scoring=____,
verbosity=2, random_state=2, cv=2)
# Fit the classifier to the training data
____.____(____, ____)
# Score on the test set
print(____.____(____, ____))