Comparación de funciones de activación
Comparar funciones de activación requiere un poco de programación, pero nada que no se pueda hacer.
Probarás diferentes funciones de activación en el modelo multietiqueta que construiste para tu máquina de riego agrícola en el capítulo 2. La función get_model('relu')
devuelve una copia de este modelo y aplica la función de activación 'relu'
a su capa oculta.
Realizará un bucle a través de varias funciones de activación, generará un nuevo modelo para cada una y lo entrenará. Si almacena la llamada de retorno del historial en un diccionario, podrá visualizar qué función de activación funcionó mejor en el siguiente ejercicio.
X_train``y_train
, X_test
, y_test
están listos para que los utilices cuando entrenes tus modelos.
Este ejercicio forma parte del curso
Introducción al aprendizaje profundo con Keras
Instrucciones de ejercicio
- Rellene la matriz de funciones de activación con
relu
,leaky_relu
,sigmoid
, ytanh
. - Obtener un nuevo modelo para cada iteración con
get_model()
pasando la función de activación actual como parámetro. - Ajuste su modelo proporcionando el tren y
validation_data
, utilice 20epochs
y ajuste verbose a 0.
Ejercicio interactivo práctico
Pruebe este ejercicio completando este código de muestra.
# Activation functions to try
activations = [____, ____, ____, ____]
# Loop over the activation functions
activation_results = {}
for act in activations:
# Get a new model with the current activation
model = ____
# Fit the model and store the history results
h_callback = ____
activation_results[act] = h_callback