ComenzarEmpieza gratis

Activaciones: ReLU frente a ELU

La elección de las funciones de activación utilizadas en el modelo (combinada con la correspondiente inicialización de los pesos) puede tener un fuerte impacto en el proceso de entrenamiento. En concreto, la activación adecuada puede evitar que la red experimente problemas de gradientes inestables.

En el ejercicio anterior, has pasado de las activaciones ReLU a ELU. ¿Recuerdas qué características de las dos activaciones justifican este cambio?

Este ejercicio forma parte del curso

Aprendizaje profundo intermedio con PyTorch

Ver curso

Ejercicio interactivo práctico

Convierte la teoría en acción con uno de nuestros ejercicios interactivos

Empieza a hacer ejercicio