XG Boost
In dieser Übung trainierst du eine weitere Boosting-Technik. XGBoost, oft als neue Königin des Machine Learning bezeichnet, ist ein optimiertes, verteiltes Gradient-Boosting-Paket, das „die Welt erobert!“ Entsprechend ist es wahrscheinlich, dass du in einem Machine-Learning-Interview danach gefragt wirst – oder es ist zumindest hilfreich, XGBoost in einer deiner Antworten zu erwähnen, um dein Wissen über moderne und sehr präzise Algorithmen zu zeigen.
Das Argument learning_rate=0.1 gibt die Schrittweite pro Iteration bei der Suche nach dem globalen Minimum an, und max_depth steuert die Größe (Tiefe) der Entscheidungsbäume, hier 3.
Alle relevanten Pakete wurden bereits für dich importiert:
pandas als pd, train_test_split aus sklearn.model_selection, accuracy_score aus sklearn.linear_model, LogisticRegression aus sklearn.linear_model, BaggingClassifier und AdaBoostClassifier aus sklearn.ensemble sowie XGBClassifier aus xgboost.
Das DataFrame loan_data ist bereits in X_train, X_test, y_train und y_test aufgeteilt.
Diese Übung ist Teil des Kurses
ML-Vorstellungsgespräche in Python üben
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Instantiate
xgb = ____(____=____, random_state=123, learning_rate=0.1, max_depth=3)