LoslegenKostenlos loslegen

Alles zusammenführen

Alles klar, jetzt bringst du alles zusammen, was du bisher gelernt hast! In dieser letzten Übung des Kurses kombinierst du deine Arbeit aus den vorherigen Übungen zu einer durchgängigen XGBoost-Pipeline, um dein Verständnis von Vorverarbeitung und Pipelines in XGBoost wirklich zu festigen.

Deine Arbeit aus den letzten 3 Übungen, in denen du die Daten vorverarbeitet und die Pipeline eingerichtet hast, wurde vorab geladen. Deine Aufgabe ist es, eine Randomized Search durchzuführen und die besten Hyperparameter zu identifizieren.

Diese Übung ist Teil des Kurses

Extreme Gradient Boosting mit XGBoost

Kurs anzeigen

Anleitung zur Übung

  • Richte das Parameter-Grid ein, um 'clf__learning_rate' (von 0.05 bis 1 in Schritten von 0.05), 'clf__max_depth' (von 3 bis 10 in Schritten von 1) und 'clf__n_estimators' (von 50 bis 200 in Schritten von 50) zu tunen.
  • Führe mit deiner pipeline als Estimator eine 2-fache RandomizedSearchCV mit n_iter von 2 durch. Verwende "roc_auc" als Metrik und setze verbose auf 1, damit die Ausgabe ausführlicher ist. Speichere das Ergebnis in randomized_roc_auc.
  • Fitte randomized_roc_auc auf X und y.
  • Ermittle den besten Score und den besten Estimator von randomized_roc_auc.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Code bearbeiten und ausführen