Aan de slagGa gratis aan de slag

Featureselectie via feature-importance

In de vorige oefening heb je geoefend met hoe filter- en wrappermethoden handig kunnen zijn bij het selecteren van features in Machine Learning en in Machine Learning-sollicitaties. In deze oefening ga je aan de slag met featureselectiemethoden door de ingebouwde feature-importance te gebruiken in boomgebaseerde Machine Learning-algoritmen op de diabetes-DataFrame.

Hoewel je op DataCamp maar met een paar ervan kunt oefenen, is er uitstekende documentatie op de scikit-learn-website waarin verschillende andere manieren om features te selecteren worden besproken.

De featurematrix en de doelfunctie-array zijn opgeslagen in je werkruimte als respectievelijk X en y.

Onthoud dat featureselectie wordt gezien als een preprocessing-stap: Machine learning pipeline

Deze oefening maakt deel uit van de cursus

Machine Learning-sollicitatievragen oefenen in Python

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Import
from sklearn.ensemble import ____

# Instantiate
rf_mod = ____(max_depth=2, random_state=123, 
              n_estimators=100, oob_score=True)

# Fit
rf_mod.____(____, ____)

# Print
print(diabetes.columns)
print(rf_mod.____)
Code bewerken en uitvoeren