Implementare ReLU
La Rectified Linear Unit (ReLU) è una funzione di attivazione molto usata nel deep learning, che aiuta a risolvere problemi come quello dei gradienti che svaniscono.
In questo esercizio, implementerai ReLU in PyTorch, la applicherai sia a valori positivi che negativi e osserverai i risultati.
Il pacchetto torch.nn è già stato importato come nn.
Questo esercizio fa parte del corso
Introduzione al Deep Learning con PyTorch
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
# Create a ReLU function with PyTorch
relu_pytorch = ____