MulaiMulai sekarang secara gratis

Menerapkan leaky ReLU

Walaupun ReLU banyak digunakan, fungsi ini mengubah masukan negatif menjadi 0, sehingga menghasilkan gradien nol untuk nilai-nilai tersebut. Hal ini dapat mencegah sebagian model untuk belajar.

Leaky ReLU mengatasinya dengan membiarkan gradien kecil untuk masukan negatif, dikendalikan oleh parameter negative_slope. Alih-alih 0, masukan negatif diskalakan oleh nilai kecil ini, sehingga proses pembelajaran model tetap aktif.

Dalam latihan ini, Anda akan menerapkan fungsi leaky ReLU di PyTorch dan berlatih menggunakannya. Paket torch serta torch.nn sebagai nn telah diimpor.

Latihan ini adalah bagian dari kursus

Pengantar Deep Learning dengan PyTorch

Lihat Kursus

Latihan interaktif praktis

Cobalah latihan ini dengan menyelesaikan kode contoh berikut.

# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____

x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)
Edit dan Jalankan Kode