Activaciones: ReLU frente a ELU
La elección de las funciones de activación utilizadas en el modelo (combinada con la correspondiente inicialización de los pesos) puede tener un fuerte impacto en el proceso de entrenamiento. En concreto, la activación adecuada puede evitar que la red experimente problemas de gradientes inestables.
En el ejercicio anterior, has pasado de las activaciones ReLU a ELU. ¿Recuerdas qué características de las dos activaciones justifican este cambio?
Este ejercicio forma parte del curso
Aprendizaje profundo intermedio con PyTorch
Ejercicio interactivo práctico
Convierte la teoría en acción con uno de nuestros ejercicios interactivos
