or
Cet exercice fait partie du cours
Pourquoi utilise-t-on ce terme étrange « hyperparamètre » ? Qu’a-t-il d’« hyper » ? Ici, vous comprendrez ce que sont les paramètres d’un modèle et en quoi ils diffèrent des hyperparamètres en Machine Learning. Vous verrez ensuite pourquoi nous souhaitons les optimiser et comment la configuration par défaut de caret inclut automatiquement une optimisation des hyperparamètres.
Dans ce chapitre, vous apprendrez à optimiser des hyperparamètres avec une grille cartésienne. Vous mettrez ensuite en œuvre des approches plus rapides et plus efficaces. Vous utiliserez la recherche aléatoire et le rééchantillonnage adaptatif pour explorer la grille de paramètres, en concentrant la recherche sur les valeurs proches des réglages optimaux.
Ici, vous utiliserez un autre package de Machine Learning qui propose des fonctions très pratiques pour l’optimisation des hyperparamètres. Vous définirez une grille cartésienne ou effectuerez une recherche aléatoire, ainsi que des techniques avancées. Vous découvrirez aussi différentes manières de visualiser et d’évaluer des modèles selon leurs hyperparamètres.
Dans ce dernier chapitre, vous utiliserez h2o, un autre package de Machine Learning offrant des fonctions très pratiques pour l’optimisation des hyperparamètres. Vous l’utiliserez pour entraîner différents modèles et définir une grille cartésienne. Ensuite, vous effectuerez une recherche aléatoire avec des critères d’arrêt. Enfin, vous découvrirez AutoML, une interface h2o qui permet une optimisation très rapide et pratique des modèles et de leurs hyperparamètres avec une seule fonction.
Exercice en cours