Regressão Logística
Nesta última lição, você vai combinar três algoritmos em um único modelo com o VotingClassifier. Isso permite aproveitar diferentes pontos fortes de cada modelo e, com sorte, melhorar o desempenho geral e detectar mais fraudes. O primeiro modelo, a Regressão Logística, tem uma pontuação de recall um pouco maior do que nosso modelo ótimo de Random Forest, mas gera muito mais falsos positivos. Você também vai adicionar uma Decision Tree com pesos balanceados. Os dados já estão divididos em conjuntos de treino e teste, ou seja, X_train, y_train, X_test, y_test estão disponíveis.
Para entender como o Voting Classifier pode potencialmente melhorar seu modelo original, primeiro confira os resultados isolados do modelo de Regressão Logística.
Este exercício faz parte do curso
Detecção de Fraudes em Python
Instruções do exercício
- Defina um modelo LogisticRegression com pesos de classe de 1:15 para os casos de fraude.
- Treine o modelo no conjunto de treino e obtenha as previsões do modelo.
- Imprima o classification report e a confusion matrix.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Define the Logistic Regression model with weights
model = ____(____={____, ____}, random_state=5)
# Get the model results
get_model_results(X_train, y_train, X_test, y_test, model)