Essayez une longueur d’ajustement plus grande
Rappelez-vous de la vidéo que les modèles de forêts aléatoires ont un paramètre d’optimisation principal, mtry, qui contrôle combien de variables sont proposées à l’algorithme de recherche de coupures à chaque séparation. Par exemple, supposons qu’un arbre ait au total 10 coupures et que mtry = 2. Cela signifie qu’il y a 10 échantillonnages de 2 prédicteurs chaque fois qu’une coupure est évaluée.
Utilisez cette fois une grille d’ajustement plus large, mais conservez les valeurs par défaut fournies par la fonction train(). Essayez un tuneLength de 3, plutôt que 1, pour explorer d’autres modèles possibles, puis tracez le modèle obtenu avec la fonction plot.
Cet exercice fait partie du cours
Machine Learning avec caret en R
Instructions
- Entraînez un modèle de forêt aléatoire,
model, en utilisant le jeu de donnéeswinesur la variablequalityavec toutes les autres variables comme explicatives. (L’exécution prendra quelques secondes ; merci de patienter !) - Utilisez
method = "ranger". - Modifiez
tuneLengthà 3. - Utilisez 5 plis de validation croisée (CV).
- Affichez
modeldans la console. - Tracez le modèle après l’ajustement.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Fit random forest: model
model <- train(
___,
tuneLength = 1,
data = ___,
method = ___,
trControl = trainControl(
method = "cv",
number = ___,
verboseIter = TRUE
)
)
# Print model to console
# Plot model