Aufwärmen: Modellvergleich
In dieser Übung führst du einen einfachen Vergleich der vier Ergebniskategorien zwischen MLPs und Random Forests mithilfe einer Confusion-Matrix durch. Das ist die Vorbereitung für eine Analyse aller Modelle, die wir behandelt haben. Dieses Warm-up ermöglicht dir, Implementierung und Bewertung dieser Modelle für die CTR-Vorhersage zu vergleichen.
Im Workspace liegen Trainings- und Test-Splits für X und y als X_train, X_test bzw. y_train, y_test bereit. Denk daran: X enthält unsere entwickelten Features mit Informationen zu Nutzer, Gerät und Website, während y das Ziel enthält (ob die Anzeige geklickt wurde). X wurde bereits mit einem StandardScaler() skaliert. Für zukünftige Modelle zur Vorhersage der Anzeigen-CTR ist das Setup analog.
Diese Übung ist Teil des Kurses
CTR-Vorhersage mit Machine Learning in Python
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Create the list of models in the order below
names = ['Random Forest', 'Multi-Layer Perceptron']
classifiers = [RandomForestClassifier(),
____(____ = (10, ),
____ = 40)]
# Produce a confusion matrix for all classifiers
for name, classifier in zip(names, classifiers):
print("Evaluating classifier: %s" %(name))
classifier.fit(____, ____)
y_pred = classifier.predict(____)
conf_matrix = confusion_matrix(____, ____)
print(conf_matrix)