or
Diese Übung ist Teil des Kurses
Mach dich bereit, große Datensätze zu vereinfachen! Du lernst, was Information bedeutet, wie du die Wichtigkeit von Features beurteilst und identifizierst Features mit wenig Information. Am Ende des Kapitels verstehst du den Unterschied zwischen Feature Selection und Feature Extraction – den beiden Ansätzen zur Dimensionsreduktion.
Lerne, wie du informationsreiche und informationsarme Features über Anteile fehlender Werte, Varianz und Korrelation erkennst. Anschließend entdeckst du, wie du tidymodels-Recipes erstellst, um Features basierend auf diesen Informationsindikatoren auszuwählen.
Kapitel drei führt in den Unterschied zwischen unüberwachter und überwachter Feature Selection ein. Du wiederholst, wie du mit tidymodels-Workflows Modelle erstellst. Danach führst du überwachte Feature Selection mit Lasso-Regression und Random-Forest-Modellen durch.
In diesem letzten Kapitel entwickelst du ein gutes Gespür für Feature Extraction, indem du verstehst, wie Hauptkomponenten die wichtigste Information aus verschiedenen Features herausziehen und kombinieren. Anschließend lernst du drei Arten der Feature Extraction kennen und anzuwenden – Principal Component Analysis (PCA), t-SNE und UMAP. Entdecke, wie du diese Methoden als Preprocessing-Schritt im tidymodels-Modellaufbau einsetzen kannst.
Aktuelle Übung