Ottimizzare altri iperparametri
La vera potenza di GridSearchCV emerge quando ottimizzi più iperparametri: l'algoritmo prova infatti tutte le combinazioni possibili per trovare quella migliore. Qui andrai a ottimizzare i seguenti iperparametri della random forest:
| Hyperparameter | Purpose |
|---|---|
| criterion | Qualità dello split |
| max_features | Numero di feature per lo split migliore |
| max_depth | Profondità massima dell'albero |
| bootstrap | Se utilizzare campioni Bootstrap |
Il reticolo di iperparametri è già stato definito per te, insieme a un classificatore random forest chiamato clf.
Questo esercizio fa parte del corso
Marketing Analytics: Prevedere il churn dei clienti in Python
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Import GridSearchCV
from sklearn.model_selection import GridSearchCV
# Create the hyperparameter grid
param_grid = {"max_depth": [3, None],
"max_features": [1, 3, 10],
"bootstrap": [True, False],
"criterion": ["gini", "entropy"]}
# Call GridSearchCV
grid_search = ____(___,___,cv=3)