IniziaInizia gratis

Implementare la leaky ReLU

Sebbene la ReLU sia ampiamente utilizzata, imposta gli input negativi a 0, producendo gradienti nulli per quei valori. Questo può impedire a parti del modello di apprendere.

La leaky ReLU supera questo limite consentendo piccoli gradienti per gli input negativi, controllati dal parametro negative_slope. Invece di 0, gli input negativi vengono moltiplicati per questo piccolo valore, mantenendo attivo l’apprendimento del modello.

In questo esercizio implementerai la funzione leaky ReLU in PyTorch e farai pratica a usarla. Il pacchetto torch e torch.nn come nn sono già stati importati.

Questo esercizio fa parte del corso

Introduzione al Deep Learning con PyTorch

Visualizza il corso

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____

x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)
Modifica ed esegui il codice