IniziaInizia gratis

Mettiamo tutto insieme

Bene, è il momento di mettere insieme tutto ciò che hai imparato finora! In questo esercizio finale del corso, combinerai il lavoro dei precedenti esercizi in una pipeline XGBoost end-to-end, così da consolidare davvero la tua comprensione del preprocessing e delle pipeline in XGBoost.

Il tuo lavoro degli ultimi 3 esercizi, in cui hai preprocessato i dati e impostato la pipeline, è già stato caricato. Il tuo compito è eseguire una ricerca randomizzata e identificare i migliori iperparametri.

Questo esercizio fa parte del corso

Extreme Gradient Boosting con XGBoost

Visualizza il corso

Istruzioni dell'esercizio

  • Definisci la griglia dei parametri per ottimizzare 'clf__learning_rate' (da 0.05 a 1 con incrementi di 0.05), 'clf__max_depth' (da 3 a 10 con incrementi di 1) e 'clf__n_estimators' (da 50 a 200 con incrementi di 50).
  • Usando la tua pipeline come estimator, esegui una RandomizedSearchCV a 2 fold con n_iter pari a 2. Usa "roc_auc" come metrica e imposta verbose a 1 per un output più dettagliato. Salva il risultato in randomized_roc_auc.
  • Adatta randomized_roc_auc a X e y.
  • Calcola il punteggio migliore e il modello migliore di randomized_roc_auc.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Modifica ed esegui il codice