1. 학습
  2. /
  3. 강의
  4. /
  5. Reinforcement Learning from Human Feedback (RLHF)

Connected

연습 문제

액티브 러닝 파이프라인 구현

이 연습에서는 로지스틱 회귀 모델과 불확실성 샘플링 전략을 사용해 액티브 러너를 설정해 보겠습니다.

데이터셋은 이미 로드되어 있으며, 학습용 라벨링 데이터는 X_labeled, 비라벨 데이터는 X_unlabeled, 라벨은 y_labeled로 제공됩니다.

필요한 라이브러리는 모두 임포트되어 있습니다: modAL.models의 ActiveLearner, modAL.uncertainty의 uncertainty_sampling, sklearn.linear_model의 LogisticRegression.

지침

100 XP
  • ActiveLearner 객체를 초기화하세요.
  • 추정기로 LogisticRegression을 사용하세요.
  • 질의 전략으로 불확실성 샘플링을 사용하세요.
  • 라벨링된 학습 데이터로 러너를 초기화하세요.