Aan de slagGa gratis aan de slag

Activaties: ReLU vs. ELU

De keuze van de activatiefuncties in het model (in combinatie met de bijbehorende initiële gewichten) kan een grote impact hebben op het trainingsproces. Met de juiste activatie voorkom je vooral dat het netwerk last krijgt van instabiele gradiënten.

In de vorige oefening ben je overgestapt van ReLU naar ELU. Weet je nog welke eigenschappen van deze twee activaties die keuze onderbouwen?

Deze oefening maakt deel uit van de cursus

Gevorderde Deep Learning met PyTorch

Cursus bekijken

Praktische interactieve oefening

Zet theorie om in actie met een van onze interactieve oefeningen.

Begin met trainen