Aan de slagGa gratis aan de slag

Effect van voorbeelden verwijderen

Support vectors zijn gedefinieerd als trainingsvoorbeelden die de decision boundary beïnvloeden. In deze oefening ga je dit gedrag bekijken door niet-support vectors uit de trainingsset te verwijderen.

De wine quality-gegevensset is al geladen in X en y (alleen de eerste twee features). (Opmerking: we geven lims op in plot_classifier() zodat beide plots dezelfde asgrenzen gebruiken en direct vergeleken kunnen worden.)

Deze oefening maakt deel uit van de cursus

Lineaire classificatoren in Python

Cursus bekijken

Oefeninstructies

  • Train een lineaire SVM op de volledige gegevensset.
  • Maak een nieuwe gegevensset met alleen de support vectors.
  • Train een nieuwe lineaire SVM op de kleinere gegevensset.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Train a linear SVM
svm = SVC(kernel="linear")
svm.fit(____)
plot_classifier(X, y, svm, lims=(11,15,0,6))

# Make a new data set keeping only the support vectors
print("Number of original examples", len(X))
print("Number of support vectors", len(svm.support_))
X_small = X[____]
y_small = y[____]

# Train a new SVM using only the support vectors
svm_small = SVC(kernel="linear")
svm_small.fit(____)
plot_classifier(X_small, y_small, svm_small, lims=(11,15,0,6))
Code bewerken en uitvoeren