Ativações: ReLU vs. ELU
A escolha das funções de ativação usadas no modelo (combinada com a inicialização do peso correspondente) pode ter um forte impacto no processo de treinamento. Em particular, a ativação adequada pode evitar que a rede tenha problemas de gradientes instáveis.
No exercício anterior, você mudou de ReLU para ELU ativações. Você se lembra de quais características das duas ativações justificam essa mudança?
Este exercício faz parte do curso
Aprendizagem profunda intermediária com PyTorch
Exercício interativo prático
Transforme a teoria em ação com um de nossos exercícios interativos
