Aan de slagGa gratis aan de slag

Voorbereiden op afstemmen

Een goede voorbereiding is de basis voor succesvol afstemmen. Er zijn twee hoofd­stappen: hyperparameters markeren met tune() in de modelspecificatie en een rooster (grid) met hyperparameters maken dat wordt gebruikt tijdens het afstemmen.

In deze oefening voer je deze twee fundamentele stappen van het afstemmingsproces uit.

Deze oefening maakt deel uit van de cursus

Machine Learning met boomgebaseerde modellen in R

Cursus bekijken

Oefeninstructies

  • Maak een boosting-specificatie met een "xgboost"-engine voor een classificatiemodel met 500 bomen en markeer de volgende parameters als afstemmingsparameters: learn_rate, tree_depth en sample_size. Sla het resultaat op als boost_spec.
  • Bouw een regulier afstemmingsrooster (tuning grid) voor de afstemmingsparameters van boost_spec met drie niveaus per parameter.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Create the specification with placeholders
boost_spec <- boost_tree(
                trees = ___,
                ___,
                ___,
                ___) %>%
  set_mode(___) %>%
  set_engine(___)

# Create the tuning grid
tunegrid_boost <- ___(___, 
                      levels = ___)

tunegrid_boost
Code bewerken en uitvoeren