IniziaInizia gratis

Implementare ReLU

La Rectified Linear Unit (ReLU) è una funzione di attivazione molto usata nel deep learning, che aiuta a risolvere problemi come quello dei gradienti che svaniscono.

In questo esercizio, implementerai ReLU in PyTorch, la applicherai sia a valori positivi che negativi e osserverai i risultati.

Il pacchetto torch.nn è già stato importato come nn.

Questo esercizio fa parte del corso

Introduzione al Deep Learning con PyTorch

Visualizza il corso

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Modifica ed esegui il codice