or
Cet exercice fait partie du cours
Les arbres de classification et de régression (CART) sont un ensemble de modèles d'apprentissage supervisé utilisés pour les problèmes de classification et de régression. Dans ce chapitre, vous découvrirez l'algorithme CART.
Le compromis biais-variance est l'un des concepts fondamentaux de l'apprentissage automatique supervisé. Dans ce chapitre, vous comprendrez comment diagnostiquer les problèmes d'overfitting et d'underfitting. Vous serez également initié au concept d'assemblage, qui consiste à agréger les prévisions de plusieurs modèles afin de produire des prévisions plus robustes.
L'agrégation est une méthode d'ensemble qui consiste à entraîner le même algorithme plusieurs fois en utilisant différents sous-ensembles échantillonnés à partir des données d'apprentissage. Dans ce chapitre, vous comprendrez comment l'ensachage peut être utilisé pour créer un ensemble d'arbres. Vous apprendrez également comment l'algorithme des forêts aléatoires peut conduire à une plus grande diversité de l'ensemble grâce à la randomisation au niveau de chaque division des arbres formant l'ensemble.
Exercice en cours
Le boosting fait référence à une méthode d'ensemble dans laquelle plusieurs modèles sont formés de manière séquentielle, chaque modèle apprenant à partir des erreurs de ses prédécesseurs. Dans ce chapitre, vous découvrirez les deux méthodes de boosting, AdaBoost et Gradient Boosting.
Les hyperparamètres d'un modèle d'apprentissage automatique sont des paramètres qui ne sont pas appris à partir des données. Ils doivent être définis avant l'adaptation du modèle à l'ensemble d'apprentissage. Dans ce chapitre, vous apprendrez à ajuster les hyperparamètres d'un modèle arborescent à l'aide de la validation croisée par recherche en grille.