Logistische Regression vs. Klassifikationsbaum
Ein Klassifikationsbaum unterteilt den Merkmalsraum in rechteckige Regionen. Im Gegensatz dazu erzeugt ein lineares Modell wie die Logistische Regression nur eine einzelne lineare Entscheidungsgrenze, die den Merkmalsraum in zwei Entscheidungsbereiche teilt.
Wir haben eine benutzerdefinierte Funktion namens plot_labeled_decision_regions() geschrieben, mit der du die Entscheidungsbereiche einer Liste mit zwei trainierten Klassifikatoren visualisieren kannst. Du kannst help(plot_labeled_decision_regions) in der Shell eingeben, um mehr über diese Funktion zu erfahren.
X_train, X_test, y_train, y_test, das Modell dt, das du in einer früheren Übung trainiert hast, sowie die Funktion plot_labeled_decision_regions() stehen dir in deinem Workspace zur Verfügung.
Diese Übung ist Teil des Kurses
Maschinelles Lernen mit baumbasierten Modellen in Python
Anleitung zur Übung
Importiere
LogisticRegressionaussklearn.linear_model.Instanziiere ein
LogisticRegression-Modell und weise eslogregzu.Fitte
logregauf den Trainingssatz.Sieh dir die durch
plot_labeled_decision_regions()erzeugte Grafik an.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Import LogisticRegression from sklearn.linear_model
from ____.____ import ____
# Instatiate logreg
____ = ____(random_state=1)
# Fit logreg to the training set
____.____(____, ____)
# Define a list called clfs containing the two classifiers logreg and dt
clfs = [logreg, dt]
# Review the decision regions of the two classifiers
plot_labeled_decision_regions(X_test, y_test, clfs)