Mengimplementasikan ReLU
Rectified Linear Unit (ReLU) adalah fungsi aktivasi yang banyak digunakan dalam deep learning, yang membantu mengatasi tantangan seperti masalah vanishing gradients.
Dalam latihan ini, Anda akan mengimplementasikan ReLU di PyTorch, menerapkannya pada nilai positif dan negatif, lalu mengamati hasilnya.
Paket torch.nn sudah diimpor untuk Anda sebagai nn.
Latihan ini adalah bagian dari kursus
Pengantar Deep Learning dengan PyTorch
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Create a ReLU function with PyTorch
relu_pytorch = ____