1. 学ぶ
  2. /
  3. コース
  4. /
  5. Python으로 배우는 사기 탐지

Connected

演習

로지스틱 회귀

이번 마지막 레슨에서는 세 가지 알고리즘을 VotingClassifier 하나로 결합해 볼 거예요. 이렇게 하면 각 모델의 장점을 함께 활용해 전체 성능을 높이고, 더 많은 사기를 적발할 수 있기를 기대할 수 있습니다. 첫 번째 모델인 로지스틱 회귀는 최적의 랜덤 포레스트 모델보다 재현율이 약간 높지만, 거짓 양성 예측이 훨씬 많이 나옵니다. 여기에 균형 가중치가 적용된 결정 트리도 추가할 거예요. 데이터는 이미 학습/테스트 세트로 분할되어 있으며, X_train, y_train, X_test, y_test가 준비되어 있습니다.

Voting Classifier가 기존 모델을 어떻게 개선할 수 있는지 이해하려면, 먼저 로지스틱 회귀 단일 모델의 결과를 확인해 보세요.

指示

100 XP
  • 사기 클래스에 대해 가중치 비율이 1:15인 LogisticRegression 모델을 정의하세요.
  • 학습 세트에 모델을 학습시키고 예측값을 얻으세요.
  • 분류 보고서와 혼동 행렬을 출력하세요.