Leaky ReLU implementieren
Die ReLU ist zwar weit verbreitet, setzt aber negative Eingaben auf 0, was zu Nullgradienten für diese Werte führt. Dadurch können Teile des Modells am Lernen gehindert werden.
Leaky ReLU überwindet dieses Problem, indem es kleine Gradienten für negative Eingaben zulässt, die durch den Parameter negative_slope
gesteuert werden. Anstelle von 0 werden negative Eingaben um diesen kleinen Wert skaliert, damit das Modell aktiv lernt.
In dieser Übung wirst du die Leaky-ReLU-Funktion in PyTorch implementieren und ihre Anwendung üben. Das Paket torch
sowie torch.nn
als nn
wurden bereits importiert.
Diese Übung ist Teil des Kurses
Einführung in Deep Learning mit PyTorch
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____
x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)