or
Diese Übung ist Teil des Kurses
In diesem Kapitel lernst du zentrale Konzepte von Support Vector Machines anhand eines einfachen eindimensionalen Beispiels kennen. Außerdem erstellst du einen linear separierbaren Datensatz, der im nächsten Kapitel verwendet wird.
Dieses Kapitel führt dich in die Grundkonzepte von Support Vector Machines ein, indem der svm-Algorithmus auf einen linear separierbaren Datensatz angewandt wird. Zentrale Ideen werden mit ggplot-Visualisierungen veranschaulicht, die auf den Ausgaben des Algorithmus basieren, und die Rolle des Kostenparameters wird an einem einfachen Beispiel hervorgehoben. Das Kapitel schließt mit einem Abschnitt darüber, wie der Algorithmus mit Multiclass-Problemen umgeht.
Dieses Kapitel führt polynomielle Kernel anhand eines radial separierbaren Datensatzes ein (d. h. mit einer kreisförmigen Entscheidungsgrenze). Nachdem gezeigt wurde, dass lineare Kernel für diesen Datensatz unzureichend sind, siehst du, wie eine einfache Transformation das Problem linear separierbar macht und so eine intuitive Diskussion des Kernel-Tricks motiviert. Anschließend wendest du den polynomialen Kernel auf den Datensatz an und stimmst den resultierenden Klassifikator ab.
Aktuelle Übung
Aufbauend auf den ersten drei Kapiteln lernst du den sehr flexiblen Radial-Basisfunktions-(RBF)-Kernel kennen. Du erstellst einen „komplexen“ Datensatz, der die Grenzen polynomialer Kernel aufzeigt. Danach siehst du – ausgehend von einer intuitiven Motivation für den RBF-Kernel –, wie er die Schwächen der anderen in diesem Kurs behandelten Kernel adressiert.