ComeçarComece gratuitamente

Comparação de funções de ativação

A comparação de funções de ativação envolve um pouco de codificação, mas nada que você não possa fazer!

Você experimentará diferentes funções de ativação no modelo com vários rótulos que criou para a máquina de irrigação agrícola no capítulo 2. A função get_model('relu') retorna uma cópia desse modelo e aplica a função de ativação 'relu' à sua camada oculta.

Você percorrerá várias funções de ativação, gerará um novo modelo para cada uma delas e o treinará. Ao armazenar o retorno de chamada do histórico em um dicionário, você poderá visualizar qual função de ativação teve o melhor desempenho no próximo exercício!

X_train, y_train, X_test, y_test estão prontos para você usar ao treinar seus modelos.

Este exercício faz parte do curso

Introdução à aprendizagem profunda com o Keras

Ver Curso

Instruções de exercício

  • Preencha a matriz de funções de ativação com relu,leaky_relu, sigmoid e tanh.
  • Obtenha um novo modelo para cada iteração com get_model() passando a função de ativação atual como parâmetro.
  • Ajuste seu modelo fornecendo o trem e validation_data, use 20 epochs e defina verbose como 0.

Exercício interativo prático

Experimente este exercício preenchendo este código de exemplo.

# Activation functions to try
activations = [____, ____, ____, ____]

# Loop over the activation functions
activation_results = {}

for act in activations:
  # Get a new model with the current activation
  model = ____
  # Fit the model and store the history results
  h_callback = ____
  activation_results[act] = h_callback
Editar e executar código