ComenzarEmpieza gratis

Juntándolo todo

¡Muy bien, llegó el momento de reunir todo lo que has aprendido hasta ahora! En este ejercicio final del curso, vas a combinar tu trabajo de los ejercicios anteriores en una única pipeline de XGBoost de principio a fin para afianzar de verdad tu comprensión del preprocesamiento y las pipelines en XGBoost.

Tu trabajo de los 3 ejercicios previos, donde preprocesaste los datos y configuraste tu pipeline, ya está precargado. Tu tarea es realizar una búsqueda aleatoria e identificar los mejores hiperparámetros.

Este ejercicio forma parte del curso

Extreme Gradient Boosting con XGBoost

Ver curso

Instrucciones del ejercicio

  • Configura la rejilla de parámetros para ajustar 'clf__learning_rate' (de 0.05 a 1 en incrementos de 0.05), 'clf__max_depth' (de 3 a 10 en incrementos de 1) y 'clf__n_estimators' (de 50 a 200 en incrementos de 50).
  • Usando tu pipeline como estimador, realiza un RandomizedSearchCV con 2 particiones (cv=2) y n_iter igual a 2. Usa "roc_auc" como métrica y establece verbose en 1 para obtener una salida más detallada. Guarda el resultado en randomized_roc_auc.
  • Ajusta randomized_roc_auc a X y y.
  • Obtén la mejor puntuación y el mejor estimador de randomized_roc_auc.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Create the parameter grid
gbm_param_grid = {
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____),
    '____': ____(____, ____, ____)
}

# Perform RandomizedSearchCV
randomized_roc_auc = ____

# Fit the estimator
____

# Compute metrics
print(____)
print(____)
Editar y ejecutar código