MulaiMulai sekarang secara gratis

Mengimplementasikan ReLU

Rectified Linear Unit (ReLU) adalah fungsi aktivasi yang banyak digunakan dalam deep learning, yang membantu mengatasi tantangan seperti masalah vanishing gradients.

Dalam latihan ini, Anda akan mengimplementasikan ReLU di PyTorch, menerapkannya pada nilai positif dan negatif, lalu mengamati hasilnya.

Paket torch.nn sudah diimpor untuk Anda sebagai nn.

Latihan ini adalah bagian dari kursus

Pengantar Deep Learning dengan PyTorch

Lihat Kursus

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Edit dan Jalankan Kode