IniziaInizia gratis

Attivazioni: ReLU vs. ELU

La scelta delle funzioni di attivazione usate nel modello (insieme alla corrispondente inizializzazione dei pesi) può avere un forte impatto sul processo di training. In particolare, l’attivazione giusta può evitare che la rete incorra in problemi di gradienti instabili.

Nel precedente esercizio, sei passata/o dalle attivazioni ReLU a ELU. Ricordi quali caratteristiche delle due attivazioni giustificano questo cambiamento?

Questo esercizio fa parte del corso

Deep Learning intermedio con PyTorch

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio