Menerapkan leaky ReLU
Walaupun ReLU banyak digunakan, fungsi ini mengubah masukan negatif menjadi 0, sehingga menghasilkan gradien nol untuk nilai-nilai tersebut. Hal ini dapat mencegah sebagian model untuk belajar.
Leaky ReLU mengatasinya dengan membiarkan gradien kecil untuk masukan negatif, dikendalikan oleh parameter negative_slope. Alih-alih 0, masukan negatif diskalakan oleh nilai kecil ini, sehingga proses pembelajaran model tetap aktif.
Dalam latihan ini, Anda akan menerapkan fungsi leaky ReLU di PyTorch dan berlatih menggunakannya. Paket torch serta torch.nn sebagai nn telah diimpor.
Latihan ini adalah bagian dari kursus
Pengantar Deep Learning dengan PyTorch
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____
x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)