ReLU'yu Uygulama
Düzleştirilmiş Doğrusal Birim (ReLU), derin öğrenmede yaygın olarak kullanılan bir aktivasyon fonksiyonudur ve kaybolan gradyanlar gibi zorlukları çözmeye yardımcı olur.
Bu egzersizde, PyTorch'ta ReLU'yu uygulayacak, onu hem pozitif hem de negatif değerlere uygulayacak ve sonuçları gözlemleyeceksin.
torch.nn paketi senin için nn olarak içe aktarılmış durumda.
Bu egzersiz
PyTorch ile Deep Learning'e Giriş
kursunun bir parçasıdırUygulamalı interaktif egzersiz
Bu örnek kodu tamamlayarak bu egzersizi bitirin.
# Create a ReLU function with PyTorch
relu_pytorch = ____