ComeçarComece de graça

Comparando funções de ativação

Comparar funções de ativação envolve um pouco de código, mas nada que você não consiga fazer!

Você vai testar diferentes funções de ativação no modelo multilabel que construiu para a máquina de irrigação da sua fazenda no capítulo 2. A função get_model('relu') retorna uma cópia desse modelo e aplica a função de ativação 'relu' à sua camada oculta.

Você vai iterar por várias funções de ativação, gerar um novo modelo para cada uma e treiná-lo. Ao armazenar o callback de histórico em um dicionário, você poderá visualizar qual função de ativação teve o melhor desempenho no próximo exercício!

X_train, y_train, X_test, y_test já estão prontos para você usar ao treinar seus modelos.

Este exercício faz parte do curso

Introdução ao Deep Learning com Keras

Ver curso

Instruções do exercício

  • Preencha o array de funções de ativação com relu, leaky_relu, sigmoid e tanh.
  • Obtenha um novo modelo a cada iteração com get_model(), passando a função de ativação atual como parâmetro.
  • Treine seu modelo informando os dados de treino e validation_data, use 20 epochs e defina verbose como 0.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Activation functions to try
activations = [____, ____, ____, ____]

# Loop over the activation functions
activation_results = {}

for act in activations:
  # Get a new model with the current activation
  model = ____
  # Fit the model and store the history results
  h_callback = ____
  activation_results[act] = h_callback
Editar e executar o código