ReLU implementeren
De Rectified Linear Unit (ReLU) is een veelgebruikte activatiefunctie in deep learning, die uitdagingen zoals het vanishing gradients-probleem aanpakt.
In deze oefening implementeer je ReLU in PyTorch, pas je het toe op zowel positieve als negatieve waarden, en bekijk je de resultaten.
Het torch.nn-pakket is al voor je geïmporteerd als nn.
Deze oefening maakt deel uit van de cursus
Introductie tot Deep Learning met PyTorch
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Create a ReLU function with PyTorch
relu_pytorch = ____