Effect van voorbeelden verwijderen
Support vectors zijn gedefinieerd als trainingsvoorbeelden die de decision boundary beïnvloeden. In deze oefening ga je dit gedrag bekijken door niet-support vectors uit de trainingsset te verwijderen.
De wine quality-gegevensset is al geladen in X en y (alleen de eerste twee features). (Opmerking: we geven lims op in plot_classifier() zodat beide plots dezelfde asgrenzen gebruiken en direct vergeleken kunnen worden.)
Deze oefening maakt deel uit van de cursus
Lineaire classificatoren in Python
Oefeninstructies
- Train een lineaire SVM op de volledige gegevensset.
- Maak een nieuwe gegevensset met alleen de support vectors.
- Train een nieuwe lineaire SVM op de kleinere gegevensset.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Train a linear SVM
svm = SVC(kernel="linear")
svm.fit(____)
plot_classifier(X, y, svm, lims=(11,15,0,6))
# Make a new data set keeping only the support vectors
print("Number of original examples", len(X))
print("Number of support vectors", len(svm.support_))
X_small = X[____]
y_small = y[____]
# Train a new SVM using only the support vectors
svm_small = SVC(kernel="linear")
svm_small.fit(____)
plot_classifier(X_small, y_small, svm_small, lims=(11,15,0,6))