1. Learn
  2. /
  3. Courses
  4. /
  5. XGBoost로 익히는 Extreme Gradient Boosting

Connected

Exercise

eta 튜닝

이제 다른 XGBoost 하이퍼파라미터를 본격적으로 튜닝하고, 모델 성능에 어떤 영향이 있는지 확인해 볼 차례예요! 먼저 학습률이라 불리는 "eta"부터 튜닝해 보겠습니다.

XGBoost의 학습률은 0과 1 사이의 값을 가지며, "eta" 값이 클수록 특성 가중치에 더 강한 패널티가 적용되어 정규화가 더 강해집니다.

Instructions

100 XP
  • 다음 "eta" 값들을 저장할 eta_vals 리스트를 만드세요: 0.001, 0.01, 0.1.
  • for 반복문으로 eta_vals 리스트를 순회하세요.
  • 각 반복에서 params의 "eta" 키를 curr_val과 같게 설정하세요. 그런 다음 조기 종료(5 라운드)를 사용하는 3-겹 교차 검증, 부스팅 라운드 10, 평가 지표 "rmse", seed는 123으로 설정해 실행하세요. 출력은 DataFrame이 되도록 하세요.
  • 마지막 라운드의 RMSE를 best_rmse 리스트에 추가하세요.