Attivazioni: ReLU vs. ELU
La scelta delle funzioni di attivazione usate nel modello (insieme alla corrispondente inizializzazione dei pesi) può avere un forte impatto sul processo di training. In particolare, l’attivazione giusta può evitare che la rete incorra in problemi di gradienti instabili.
Nel precedente esercizio, sei passata/o dalle attivazioni ReLU a ELU. Ricordi quali caratteristiche delle due attivazioni giustificano questo cambiamento?
Questo esercizio fa parte del corso
Deep Learning intermedio con PyTorch
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio