1. Learn
  2. /
  3. Courses
  4. /
  5. XGBoost로 익히는 Extreme Gradient Boosting

Connected

Exercise

모두 종합해 보기

좋습니다. 이제까지 배운 내용을 모두 종합해 볼 차례예요! 이 강의의 마지막 연습 문제에서는 이전 연습 문제에서의 작업을 하나의 end-to-end XGBoost 파이프라인으로 결합하여, XGBoost에서의 전처리와 파이프라인 개념을 확실히 다지게 됩니다.

이전 3개의 연습 문제에서 데이터 전처리와 파이프라인 구성을 마친 작업은 이미 로드되어 있습니다. 이제 여러분의 과제는 randomized search를 수행하고 최적의 하이퍼파라미터를 찾는 것입니다.

Instructions

100 XP
  • 'clf__learning_rate'(범위 0.05부터 1까지 0.05 간격), 'clf__max_depth'(범위 3부터 10까지 1 간격), 'clf__n_estimators'(범위 50부터 200까지 50 간격)를 튜닝하도록 파라미터 그리드를 설정하세요.
  • pipeline을 추정기로 사용해 2겹 RandomizedSearchCV를 수행하고, n_iter는 2로 설정하세요. 평가지표는 "roc_auc"를 사용하고, 출력이 더 자세하도록 verbose는 1로 설정하세요. 결과는 randomized_roc_auc에 저장하세요.
  • randomized_roc_auc를 X와 y에 적합하세요.
  • randomized_roc_auc의 최고 점수와 최적 추정기를 계산하세요.