Logistische Regression vs. Klassifikationsbaum
Ein Klassifikationsbaum unterteilt den Merkmalsraum in rechteckige Regionen. Im Gegensatz dazu erzeugt ein lineares Modell wie die logistische Regression nur eine einzige lineare Entscheidungsgrenze, die den Merkmalsraum in zwei Entscheidungsregionen teilt.
Wir haben eine benutzerdefinierte Funktion namens plot_labeled_decision_regions()
geschrieben, mit der du die Entscheidungsbereiche einer Liste mit zwei trainierten Klassifikatoren darstellen kannst. Du kannst help(plot_labeled_decision_regions)
in der Shell eingeben, um mehr über diese Funktion zu erfahren.
X_train
, X_test
, y_train
, y_test
, das Modell dt
, das du in einer früheren Übung trainiert hast, sowie die Funktion plot_labeled_decision_regions()
sind in deinem Arbeitsbereich verfügbar.
Diese Übung ist Teil des Kurses
Maschinelles Lernen mit baumbasierten Modellen in Python
Anleitung zur Übung
Importiere
LogisticRegression
vonsklearn.linear_model
.Instanziere ein
LogisticRegression
Modell und weise eslogreg
zu.Passe
logreg
an die Trainingsmenge an.Überprüfe die von
plot_labeled_decision_regions()
erstellte Grafik.
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Import LogisticRegression from sklearn.linear_model
from ____.____ import ____
# Instatiate logreg
____ = ____(random_state=1)
# Fit logreg to the training set
____.____(____, ____)
# Define a list called clfs containing the two classifiers logreg and dt
clfs = [logreg, dt]
# Review the decision regions of the two classifiers
plot_labeled_decision_regions(X_test, y_test, clfs)