Filteren op variabelebelang
De gegevensset attrition bevat 839 observaties en 30 voorspellers voor "Attrition". Je wilt de afweging verkennen tussen de prestatie van een model dat alle beschikbare voorspellers gebruikt en een gereduceerd model dat is gebaseerd op een paar informatieve variabelen.
In deze oefening fit je een model en bekijk je het variabelebelang van dit gefitte model. In de volgende oefening beoordeel je de modelprestatie met dit model vergeleken met een gereduceerd model.
De train- en test-splits en het pakket vip() zijn beschikbaar in je omgeving, samen met een vooraf gedeclareerd logistisch regressie-model.
Deze oefening maakt deel uit van de cursus
Feature engineering in R
Oefeninstructies
- Maak een recipe die
Attritionmodelleert met alle voorspellers. - Fit de workflow op de trainingsdata.
- Gebruik het object
fit_fullom het variabelebelang van je model te plotten. - Pas de functie
extract_fit_parsnip()toe vóórvip()om het van de vereiste informatie te voorzien.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create a recipe that models Attrition using all the predictors
recipe_full <- ___(___, data = train)
workflow_full <- workflow() %>%
add_model(model) %>%
add_recipe(recipe_full)
# Fit the workflow to the training data
fit_full <- ___ %>%
___(data = train)
# Use the fit_full object to graph the variable importance of your model. Apply extract_fit_parsnip() function before vip()
fit_full %>% ___() %>%
___(aesthetics = list(fill = "steelblue"))