Aan de slagGa gratis aan de slag

Leaky ReLU implementeren

Hoewel ReLU veel wordt gebruikt, zet het negatieve inputwaarden op 0, wat resulteert in nulgradiënten voor die waarden. Dit kan voorkomen dat delen van het model leren.

Leaky ReLU lost dit op door kleine gradiënten toe te staan voor negatieve inputs, geregeld door de parameter negative_slope. In plaats van 0 worden negatieve inputs met deze kleine waarde geschaald, zodat het leren van het model actief blijft.

In deze oefening implementeer je de leaky ReLU-functie in PyTorch en oefen je met het gebruik ervan. Het pakket torch en torch.nn als nn zijn al geïmporteerd.

Deze oefening maakt deel uit van de cursus

Introductie tot Deep Learning met PyTorch

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____

x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)
Code bewerken en uitvoeren