ComenzarEmpieza gratis

Árboles de decisión como aprendices base

¡Es hora de crear un modelo de XGBoost para predecir precios de casas, no en Boston (Massachusetts) como viste en el vídeo, sino en Ames (Iowa)! Este conjunto de datos de precios de viviendas se ha precargado en un DataFrame llamado df. Si lo exploras en la Shell, verás que incluye diversas características sobre la casa y su ubicación en la ciudad.

En este ejercicio, tu objetivo es usar árboles como aprendices base. De forma predeterminada, XGBoost usa árboles como aprendices base, así que no necesitas especificar que quieres usar árboles con booster="gbtree".

xgboost se ha importado como xgb y los arrays de características y objetivo están disponibles en X y y, respectivamente.

Este ejercicio forma parte del curso

Extreme Gradient Boosting con XGBoost

Ver curso

Instrucciones del ejercicio

  • Divide df en conjuntos de entrenamiento y prueba, reservando un 20% para la prueba. Usa random_state igual a 123.
  • Instancia XGBRegressor como xg_reg, usando seed igual a 123. Especifica el objective "reg:squarederror" y utiliza 10 árboles. Nota: no hace falta especificar booster="gbtree", ya que es el valor predeterminado.
  • Ajusta xg_reg a los datos de entrenamiento y predice las etiquetas del conjunto de prueba. Guarda las predicciones en una variable llamada preds.
  • Calcula el rmse usando np.sqrt() y la función mean_squared_error() de sklearn.metrics, que ya se ha importado previamente.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Create the training and test sets
X_train, X_test, y_train, y_test = ____(____, ____, ____=____, random_state=123)

# Instantiate the XGBRegressor: xg_reg
xg_reg = ____

# Fit the regressor to the training set
____

# Predict the labels of the test set: preds
preds = ____

# Compute the rmse: rmse
rmse = ____(____(____, ____))
print("RMSE: %f" % (rmse))
Editar y ejecutar código