IniziaInizia gratis

Oltre la sola accuratezza

In questo esercizio, per andare oltre la semplice accuratezza, valuterai l'AUC della curva ROC per un modello base di albero decisionale. Ricorda che il confronto di base per un classificatore casuale è un'AUC di 0,5, quindi dovrai ottenere un punteggio superiore a 0,5.

X è disponibile come DataFrame con le feature e y è disponibile come DataFrame con i valori target. Sia sklearn sia pandas come pd sono disponibili nel tuo workspace.

Useremo questa impostazione per osservare l'AUC della nostra curva ROC.

Questo esercizio fa parte del corso

Prevedere il CTR con il Machine Learning in Python

Visualizza il corso

Istruzioni dell'esercizio

  • Suddividi i dati in set di training e di test.
  • Allena il classificatore sui dati di training per fare previsioni sui dati di test usando predict_proba() e predict().
  • Valuta l'AUC sotto la curva ROC usando la funzione roc_curve() su y_test tramite roc_curve(y_test, y_score[:, 1]).

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Training and testing
X_train, X_test, y_train, y_test = \
	____(X, y, test_size = .2, random_state = 0)

# Create decision tree classifier
clf = DecisionTreeClassifier()

# Train classifier - predict probability score and label
y_score = clf.fit(____, ____).predict_proba(____) 
y_pred = clf.fit(____, ____).predict(____) 

# Get ROC curve metrics
fpr, tpr, thresholds = ____(____, y_score[:, 1])
roc_auc = auc(fpr, tpr)
print(roc_auc)
Modifica ed esegui il codice