Hyperparameters willekeurig bemonsteren
Om een random search uit te voeren, moeten we eerst onze hyperparameter-ruimte willekeurig bemonsteren.
In deze oefening maak je eerst enkele lijsten met hyperparameters die je kunt samenvoegen tot een lijst-van-lijsten. Daarna ga je willekeurig hyperparametercombinaties bemonsteren ter voorbereiding op het uitvoeren van een random search.
Je gebruikt alleen de hyperparameters learning_rate en min_samples_leaf van het GBM-algoritme om het voorbeeld duidelijk en niet onnodig complex te houden.
Deze oefening maakt deel uit van de cursus
Hyperparameter Tuning in Python
Oefeninstructies
- Maak een lijst met 200 waarden voor de hyperparameter
learning_ratetussen 0,01 en 1,5 en ken deze toe aan de lijstlearn_rate_list. - Maak een lijst met waarden tussen 10 en 40 (inclusief) voor de hyperparameter
min_samples_leafen ken deze toe aan de lijstmin_samples_list. - Combineer deze lijsten tot een lijst-van-lijsten om uit te bemonsteren.
- Trek willekeurig 250 modellen uit deze hyperparametercombinaties en print het resultaat.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create a list of values for the learning_rate hyperparameter
learn_rate_list = list(np.____(____,____,____))
# Create a list of values for the min_samples_leaf hyperparameter
min_samples_list = list(____(____,____))
# Combination list
combinations_list = [list(x) for x in ____(____, min_samples_list)]
# Sample hyperparameter combinations for a random search.
random_combinations_index = np.____(range(0, len(____)), ____, replace=False)
combinations_random_chosen = [combinations_list[x] for x in ____]
# Print the result
print(____)