Regressione logistica vs albero di classificazione
Un albero di classificazione suddivide lo spazio delle feature in regioni rettangolari. Al contrario, un modello lineare come la regressione logistica produce un'unica frontiera di decisione lineare che divide lo spazio delle feature in due regioni di decisione.
Abbiamo scritto una funzione personalizzata chiamata plot_labeled_decision_regions() che puoi usare per tracciare le regioni di decisione di una lista contenente due classificatori già addestrati. Puoi digitare help(plot_labeled_decision_regions) nella shell per saperne di più su questa funzione.
X_train, X_test, y_train, y_test, il modello dt che hai addestrato in un esercizio precedente, così come la funzione plot_labeled_decision_regions(), sono disponibili nel tuo workspace.
Questo esercizio fa parte del corso
Machine Learning con modelli ad alberi in Python
Istruzioni dell'esercizio
Importa
LogisticRegressiondasklearn.linear_model.Istanzia un modello
LogisticRegressione assegnalo alogreg.Esegui il fit di
logregsul training set.Osserva il grafico generato da
plot_labeled_decision_regions().
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Import LogisticRegression from sklearn.linear_model
from ____.____ import ____
# Instatiate logreg
____ = ____(random_state=1)
# Fit logreg to the training set
____.____(____, ____)
# Define a list called clfs containing the two classifiers logreg and dt
clfs = [logreg, dt]
# Review the decision regions of the two classifiers
plot_labeled_decision_regions(X_test, y_test, clfs)