CommencerCommencer gratuitement

Comparer les fonctions d’activation

Comparer les fonctions d’activation demande un peu de code, mais rien d’insurmontable !

Vous allez essayer différentes fonctions d’activation sur le modèle multi-étiquette que vous avez construit pour votre machine d’irrigation agricole au chapitre 2. La fonction get_model('relu') renvoie une copie de ce modèle et applique la fonction d’activation 'relu' à sa couche cachée.

Vous parcourrez plusieurs fonctions d’activation, générerez un nouveau modèle pour chacune, puis l’entraînerez. En stockant le callback d’historique dans un dictionnaire, vous pourrez visualiser, dans le prochain exercice, laquelle a obtenu les meilleures performances !

X_train, y_train, X_test, y_test sont prêts à être utilisés pour entraîner vos modèles.

Cet exercice fait partie du cours

Introduction au Deep Learning avec Keras

Afficher le cours

Instructions

  • Complétez le tableau des fonctions d’activation avec relu, leaky_relu, sigmoid et tanh.
  • Obtenez un nouveau modèle à chaque itération avec get_model() en passant la fonction d’activation courante en paramètre.
  • Entraînez votre modèle en fournissant les données d’entraînement et validation_data, utilisez 20 epochs et définissez verbose à 0.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Activation functions to try
activations = [____, ____, ____, ____]

# Loop over the activation functions
activation_results = {}

for act in activations:
  # Get a new model with the current activation
  model = ____
  # Fit the model and store the history results
  h_callback = ____
  activation_results[act] = h_callback
Modifier et exécuter le code