LoslegenKostenlos loslegen

Genetisches Hyperparameter-Tuning mit TPOT

Du setzt jetzt ein einfaches Beispiel für genetisches Hyperparameter-Tuning um. TPOT ist eine sehr leistungsfähige Bibliothek mit vielen Funktionen. In dieser Lektion kratzt du nur an der Oberfläche, aber wir empfehlen dir sehr, sie in deiner eigenen Zeit weiter zu erkunden.

Dies ist ein sehr kleines Beispiel. In der Praxis lässt man TPOT viele Stunden laufen, um das beste Modell zu finden. Du würdest eine deutlich größere Populations- und Nachkommenzahl sowie Hunderte von Generationen verwenden, um ein gutes Modell zu finden.

Du erstellst den Estimator, passt ihn an die Trainingsdaten an und bewertest ihn anschließend auf den Testdaten.

Für dieses Beispiel möchten wir verwenden:

  • 3 Generationen
  • 4 in der Populationsgröße
  • 3 Nachkommen pro Generation
  • accuracy als Scoring-Metrik

Ein random_state von 2 wurde gesetzt, um konsistente Ergebnisse zu erhalten.

Diese Übung ist Teil des Kurses

Hyperparameter-Tuning in Python

Kurs anzeigen

Anleitung zur Übung

  • Weise die im Kontext genannten Werte den Eingaben für tpot_clf zu.
  • Erstelle den tpot_clf-Classifier mit den korrekten Eingaben.
  • Fitte den Classifier auf die Trainingsdaten (X_train und y_train sind in deinem Workspace verfügbar).
  • Nutze den fitten Classifier, um auf dem Testset zu scoren (X_test und y_test sind in deinem Workspace verfügbar).

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Assign the values outlined to the inputs
number_generations = ____
population_size = ____
offspring_size = ____
scoring_function = ____

# Create the tpot classifier
tpot_clf = TPOTClassifier(generations=____, population_size=____,
                          offspring_size=____, scoring=____,
                          verbosity=2, random_state=2, cv=2)

# Fit the classifier to the training data
____.____(____, ____)

# Score on the test set
print(____.____(____, ____))
Code bearbeiten und ausführen