ComeçarComece gratuitamente

Ativações: ReLU vs. ELU

A escolha das funções de ativação usadas no modelo (combinada com a inicialização do peso correspondente) pode ter um forte impacto no processo de treinamento. Em particular, a ativação adequada pode evitar que a rede tenha problemas de gradientes instáveis.

No exercício anterior, você mudou de ReLU para ELU ativações. Você se lembra de quais características das duas ativações justificam essa mudança?

Este exercício faz parte do curso

Aprendizagem profunda intermediária com PyTorch

Ver Curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Comece o exercício