Activaties: ReLU vs. ELU
De keuze van de activatiefuncties in het model (in combinatie met de bijbehorende initiële gewichten) kan een grote impact hebben op het trainingsproces. Met de juiste activatie voorkom je vooral dat het netwerk last krijgt van instabiele gradiënten.
In de vorige oefening ben je overgestapt van ReLU naar ELU. Weet je nog welke eigenschappen van deze twee activaties die keuze onderbouwen?
Deze oefening maakt deel uit van de cursus
Gevorderde Deep Learning met PyTorch
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen