Aan de slagGa gratis aan de slag

Activatiefuncties vergelijken

Activatiefuncties vergelijken vraagt wat code, maar niets wat je niet kunt!

Je gaat verschillende activatiefuncties uitproberen op het multi-labelmodel dat je in hoofdstuk 2 bouwde voor je irrigatiemachine op de boerderij. De functie get_model('relu') geeft een kopie van dit model terug en past de activatiefunctie 'relu' toe op de verborgen laag.

Je loopt door meerdere activatiefuncties heen, maakt voor elke functie een nieuw model en traint het. Door de history-callback in een dictionary op te slaan, kun je in de volgende oefening visualiseren welke activatiefunctie het beste presteerde!

X_train, y_train, X_test, y_test staan klaar om te gebruiken bij het trainen van je modellen.

Deze oefening maakt deel uit van de cursus

Introductie tot Deep Learning met Keras

Cursus bekijken

Oefeninstructies

  • Vul de array met activatiefuncties aan met relu, leaky_relu, sigmoid en tanh.
  • Haal in elke iteratie een nieuw model op met get_model() en geef de huidige activatiefunctie als parameter door.
  • Train je model met de trainings- en validation_data, gebruik 20 epochs en zet verbose op 0.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Activation functions to try
activations = [____, ____, ____, ____]

# Loop over the activation functions
activation_results = {}

for act in activations:
  # Get a new model with the current activation
  model = ____
  # Fit the model and store the history results
  h_callback = ____
  activation_results[act] = h_callback
Code bewerken en uitvoeren