LoslegenKostenlos loslegen

Entropie vs. Gini-Index

In dieser Übung vergleichst du die Testgenauigkeit von dt_entropy mit der Genauigkeit eines anderen Baums namens dt_gini. Der Baum dt_gini wurde auf demselben Datensatz mit denselben Parametern trainiert – mit der Ausnahme, dass als Informationskriterium der Gini-Index über das Schlüsselwort 'gini' gesetzt wurde.

X_test, y_test, dt_entropy sowie accuracy_gini, das der auf dem Testsatz von dt_gini erreichten Genauigkeit entspricht, stehen dir in deinem Workspace zur Verfügung.

Diese Übung ist Teil des Kurses

Maschinelles Lernen mit baumbasierten Modellen in Python

Kurs anzeigen

Anleitung zur Übung

  • Importiere accuracy_score aus sklearn.metrics.
  • Sage die Testlabels von dt_entropy voraus und weise das Ergebnis y_pred zu.
  • Bewerte die Testgenauigkeit von dt_entropy und weise das Ergebnis accuracy_entropy zu.
  • Schau dir accuracy_entropy und accuracy_gini an.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Import accuracy_score from sklearn.metrics
from ____.____ import ____

# Use dt_entropy to predict test set labels
____= ____.____(____)

# Evaluate accuracy_entropy
accuracy_entropy = ____(____, ____)

# Print accuracy_entropy
print(f'Accuracy achieved by using entropy: {accuracy_entropy:.3f}')

# Print accuracy_gini
print(f'Accuracy achieved by using the gini index: {accuracy_gini:.3f}')
Code bearbeiten und ausführen