Aquecimento: comparação de modelos
Neste exercício, você vai fazer uma comparação básica das quatro categorias de resultados entre MLPs e Random Forests usando uma matriz de confusão. Isso é uma preparação para uma análise de todos os modelos que vimos. Fazer este aquecimento vai permitir que você compare e contraste a implementação desses modelos e sua avaliação para prever CTR.
No workspace, temos divisões de treino e teste para X e y como X_train, X_test para X e y_train, y_test para y, respectivamente. Lembre-se: X contém nossos recursos criados com detalhes de usuário, dispositivo e site, enquanto y contém o alvo (se o anúncio foi clicado). X já foi padronizado usando StandardScaler(). Para futuros modelos de predição de CTR de anúncios, a configuração será análoga.
Este exercício faz parte do curso
Prevendo CTR com Machine Learning em Python
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Create the list of models in the order below
names = ['Random Forest', 'Multi-Layer Perceptron']
classifiers = [RandomForestClassifier(),
____(____ = (10, ),
____ = 40)]
# Produce a confusion matrix for all classifiers
for name, classifier in zip(names, classifiers):
print("Evaluating classifier: %s" %(name))
classifier.fit(____, ____)
y_pred = classifier.predict(____)
conf_matrix = confusion_matrix(____, ____)
print(conf_matrix)