Comparação de funções de ativação
A comparação de funções de ativação envolve um pouco de codificação, mas nada que você não possa fazer!
Você experimentará diferentes funções de ativação no modelo com vários rótulos que criou para a máquina de irrigação agrícola no capítulo 2. A função get_model('relu')
retorna uma cópia desse modelo e aplica a função de ativação 'relu'
à sua camada oculta.
Você percorrerá várias funções de ativação, gerará um novo modelo para cada uma delas e o treinará. Ao armazenar o retorno de chamada do histórico em um dicionário, você poderá visualizar qual função de ativação teve o melhor desempenho no próximo exercício!
X_train
, y_train
, X_test
, y_test
estão prontos para você usar ao treinar seus modelos.
Este exercício faz parte do curso
Introdução à aprendizagem profunda com o Keras
Instruções de exercício
- Preencha a matriz de funções de ativação com
relu
,leaky_relu
,sigmoid
etanh
. - Obtenha um novo modelo para cada iteração com
get_model()
passando a função de ativação atual como parâmetro. - Ajuste seu modelo fornecendo o trem e
validation_data
, use 20epochs
e defina verbose como 0.
Exercício interativo prático
Experimente este exercício preenchendo este código de exemplo.
# Activation functions to try
activations = [____, ____, ____, ____]
# Loop over the activation functions
activation_results = {}
for act in activations:
# Get a new model with the current activation
model = ____
# Fit the model and store the history results
h_callback = ____
activation_results[act] = h_callback