Voorbereiden op afstemmen
Een goede voorbereiding is de basis voor succesvol afstemmen. Er zijn twee hoofdstappen: hyperparameters markeren met tune() in de modelspecificatie en een rooster (grid) met hyperparameters maken dat wordt gebruikt tijdens het afstemmen.
In deze oefening voer je deze twee fundamentele stappen van het afstemmingsproces uit.
Deze oefening maakt deel uit van de cursus
Machine Learning met boomgebaseerde modellen in R
Oefeninstructies
- Maak een boosting-specificatie met een
"xgboost"-engine voor een classificatiemodel met 500 bomen en markeer de volgende parameters als afstemmingsparameters:learn_rate,tree_depthensample_size. Sla het resultaat op alsboost_spec. - Bouw een regulier afstemmingsrooster (tuning grid) voor de afstemmingsparameters van
boost_specmet drie niveaus per parameter.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create the specification with placeholders
boost_spec <- boost_tree(
trees = ___,
___,
___,
___) %>%
set_mode(___) %>%
set_engine(___)
# Create the tuning grid
tunegrid_boost <- ___(___,
levels = ___)
tunegrid_boost