Implementare la leaky ReLU
Sebbene la ReLU sia ampiamente utilizzata, imposta gli input negativi a 0, producendo gradienti nulli per quei valori. Questo può impedire a parti del modello di apprendere.
La leaky ReLU supera questo limite consentendo piccoli gradienti per gli input negativi, controllati dal parametro negative_slope. Invece di 0, gli input negativi vengono moltiplicati per questo piccolo valore, mantenendo attivo l’apprendimento del modello.
In questo esercizio implementerai la funzione leaky ReLU in PyTorch e farai pratica a usarla. Il pacchetto torch e torch.nn come nn sono già stati importati.
Questo esercizio fa parte del corso
Introduzione al Deep Learning con PyTorch
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____
x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)