LoslegenKostenlos loslegen

Entropie vs. Gini-Index

In dieser Übung vergleichst du die Testgenauigkeit von dt_entropy mit der Genauigkeit eines anderen Baums namens dt_gini. Der Baum dt_gini wurde auf demselben Datensatz mit denselben Parametern trainiert – mit einer Ausnahme: Das Informationskriterium wurde mithilfe des Keywords 'gini' auf den Gini-Index gesetzt.

X_test, y_test, dt_entropy sowie accuracy_gini (die Testgenauigkeit von dt_gini) stehen dir in deinem Workspace zur Verfügung.

Diese Übung ist Teil des Kurses

Maschinelles Lernen mit baumbasierten Modellen in Python

Kurs anzeigen

Anleitung zur Übung

  • Importiere accuracy_score aus sklearn.metrics.
  • Sage die Test-Labels von dt_entropy voraus und weise das Ergebnis y_pred zu.
  • Werte die Testgenauigkeit von dt_entropy aus und weise das Ergebnis accuracy_entropy zu.
  • Sieh dir accuracy_entropy und accuracy_gini an.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Import accuracy_score from sklearn.metrics
from ____.____ import ____

# Use dt_entropy to predict test set labels
____= ____.____(____)

# Evaluate accuracy_entropy
accuracy_entropy = ____(____, ____)

# Print accuracy_entropy
print(f'Accuracy achieved by using entropy: {accuracy_entropy:.3f}')

# Print accuracy_gini
print(f'Accuracy achieved by using the gini index: {accuracy_gini:.3f}')
Code bearbeiten und ausführen