Juntándolo todo
¡Muy bien, llegó el momento de reunir todo lo que has aprendido hasta ahora! En este ejercicio final del curso, vas a combinar tu trabajo de los ejercicios anteriores en una única pipeline de XGBoost de principio a fin para afianzar de verdad tu comprensión del preprocesamiento y las pipelines en XGBoost.
Tu trabajo de los 3 ejercicios previos, donde preprocesaste los datos y configuraste tu pipeline, ya está precargado. Tu tarea es realizar una búsqueda aleatoria e identificar los mejores hiperparámetros.
Este ejercicio forma parte del curso
Extreme Gradient Boosting con XGBoost
Instrucciones del ejercicio
- Configura la rejilla de parámetros para ajustar
'clf__learning_rate'(de0.05a1en incrementos de0.05),'clf__max_depth'(de3a10en incrementos de1) y'clf__n_estimators'(de50a200en incrementos de50). - Usando tu
pipelinecomo estimador, realiza unRandomizedSearchCVcon 2 particiones (cv=2) yn_iterigual a2. Usa"roc_auc"como métrica y estableceverboseen1para obtener una salida más detallada. Guarda el resultado enrandomized_roc_auc. - Ajusta
randomized_roc_aucaXyy. - Obtén la mejor puntuación y el mejor estimador de
randomized_roc_auc.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Create the parameter grid
gbm_param_grid = {
'____': ____(____, ____, ____),
'____': ____(____, ____, ____),
'____': ____(____, ____, ____)
}
# Perform RandomizedSearchCV
randomized_roc_auc = ____
# Fit the estimator
____
# Compute metrics
print(____)
print(____)