1. เรียนรู้
  2. /
  3. Courses
  4. /
  5. scikit-learn으로 배우는 Supervised Learning

Connected

Exercises

RandomizedSearchCV로 하이퍼파라미터 튜닝

앞에서 보신 것처럼, GridSearchCV는 특히 하이퍼파라미터 공간이 클 때 계산 비용이 많이 듭니다. 이런 경우에는 지정한 확률 분포에서 고정된 개수의 하이퍼파라미터 조합을 시험하는 RandomizedSearchCV를 사용할 수 있어요.

diabetes_df에서 분할한 학습/테스트 세트가 이미 X_train, X_test, y_train, y_test로 로드되어 있으며, 타깃은 "diabetes"입니다. 로지스틱 회귀 모델은 logreg로, KFold 객체는 kf로 준비되어 있어요.

이제 하이퍼파라미터 범위를 정의하고, sklearn.model_selection에서 가져온 RandomizedSearchCV를 사용해 이 옵션들에서 최적의 하이퍼파라미터를 탐색해 보겠습니다.

คำแนะนำ

100 XP
  • params를 생성하세요. penalty에는 "l1"과 "l2"를 넣고, C는 0.1에서 1.0 사이의 50개 float 값 범위로 설정하며, class_weight는 "balanced" 또는 {0:0.8, 1:0.2} 딕셔너리로 지정하세요.
  • Randomized Search CV 객체를 만들고, 모델과 파라미터를 전달하며 cv를 kf로 설정하세요.
  • 학습 데이터에 logreg_cv를 학습시키세요.
  • 모델의 최적 하이퍼파라미터와 정확도 점수를 출력하세요.