LoslegenKostenlos loslegen

XG Boost

In dieser Übung trainierst du eine weitere Boosting-Technik. XGBoost, oft als neue Königin des Machine Learning bezeichnet, ist ein optimiertes, verteiltes Gradient-Boosting-Paket, das „die Welt erobert!“ Entsprechend ist es wahrscheinlich, dass du in einem Machine-Learning-Interview danach gefragt wirst – oder es ist zumindest hilfreich, XGBoost in einer deiner Antworten zu erwähnen, um dein Wissen über moderne und sehr präzise Algorithmen zu zeigen.

Das Argument learning_rate=0.1 gibt die Schrittweite pro Iteration bei der Suche nach dem globalen Minimum an, und max_depth steuert die Größe (Tiefe) der Entscheidungsbäume, hier 3.

Alle relevanten Pakete wurden bereits für dich importiert: pandas als pd, train_test_split aus sklearn.model_selection, accuracy_score aus sklearn.linear_model, LogisticRegression aus sklearn.linear_model, BaggingClassifier und AdaBoostClassifier aus sklearn.ensemble sowie XGBClassifier aus xgboost.

Das DataFrame loan_data ist bereits in X_train, X_test, y_train und y_test aufgeteilt.

Diese Übung ist Teil des Kurses

ML-Vorstellungsgespräche in Python üben

Kurs anzeigen

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Instantiate
xgb = ____(____=____, random_state=123, learning_rate=0.1, max_depth=3)
Code bearbeiten und ausführen