1. Học hỏi
  2. /
  3. Khoa Học
  4. /
  5. Machine Learning với caret trong R

Connected

Bài tập

Huấn luyện glmnet với trainControl tùy chỉnh

Bây giờ bạn đã có một đối tượng trainControl tùy chỉnh, hãy huấn luyện một mô hình glmnet trên bộ dữ liệu "don't overfit". Nhớ lại từ video rằng glmnet là phần mở rộng của mô hình hồi quy tuyến tính tổng quát (hay glm) với các ràng buộc lên độ lớn của hệ số để tránh overfitting. Cách tiếp cận này thường được gọi là hồi quy "có phạt" (penalized) và rất hữu ích cho các bộ dữ liệu có nhiều biến dự đoán nhưng ít quan sát.

glmnet có thể khớp hai loại mô hình penalized khác nhau, được điều khiển bởi tham số alpha:

  • Hồi quy Ridge (tức alpha = 0)
  • Hồi quy Lasso (tức alpha = 1)

Giờ bạn sẽ huấn luyện một mô hình glmnet trên bộ dữ liệu "don't overfit" dùng các thiết lập mặc định do gói caret cung cấp.

Hướng dẫn

100 XP
  • Huấn luyện một mô hình glmnet tên là model trên dữ liệu overfit. Dùng trainControl tùy chỉnh từ bài trước (myControl). Biến y là biến phản hồi và tất cả biến còn lại là biến giải thích.
  • In mô hình ra console.
  • Dùng hàm max() để tìm giá trị lớn nhất của chỉ số ROC nằm đâu đó trong model[["results"]].