Comparando funções de ativação
Comparar funções de ativação envolve um pouco de código, mas nada que você não consiga fazer!
Você vai testar diferentes funções de ativação no modelo multilabel que construiu para a máquina de irrigação da sua fazenda no capítulo 2. A função get_model('relu') retorna uma cópia desse modelo e aplica a função de ativação 'relu' à sua camada oculta.
Você vai iterar por várias funções de ativação, gerar um novo modelo para cada uma e treiná-lo. Ao armazenar o callback de histórico em um dicionário, você poderá visualizar qual função de ativação teve o melhor desempenho no próximo exercício!
X_train, y_train, X_test, y_test já estão prontos para você usar ao treinar seus modelos.
Este exercício faz parte do curso
Introdução ao Deep Learning com Keras
Instruções do exercício
- Preencha o array de funções de ativação com
relu,leaky_relu,sigmoidetanh. - Obtenha um novo modelo a cada iteração com
get_model(), passando a função de ativação atual como parâmetro. - Treine seu modelo informando os dados de treino e
validation_data, use 20epochse definaverbosecomo 0.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Activation functions to try
activations = [____, ____, ____, ____]
# Loop over the activation functions
activation_results = {}
for act in activations:
# Get a new model with the current activation
model = ____
# Fit the model and store the history results
h_callback = ____
activation_results[act] = h_callback