LoslegenKostenlos loslegen

Leaky ReLU implementieren

Die ReLU ist zwar weit verbreitet, setzt aber negative Eingaben auf 0, was zu Nullgradienten für diese Werte führt. Dadurch können Teile des Modells am Lernen gehindert werden.

Leaky ReLU überwindet dieses Problem, indem es kleine Gradienten für negative Eingaben zulässt, die durch den Parameter negative_slope gesteuert werden. Anstelle von 0 werden negative Eingaben um diesen kleinen Wert skaliert, damit das Modell aktiv lernt.

In dieser Übung wirst du die Leaky-ReLU-Funktion in PyTorch implementieren und ihre Anwendung üben. Das Paket torch sowie torch.nn als nn wurden bereits importiert.

Diese Übung ist Teil des Kurses

Einführung in Deep Learning mit PyTorch

Kurs anzeigen

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

# Create a leaky relu function in PyTorch
leaky_relu_pytorch = ____

x = torch.tensor(-2.0)
# Call the above function on the tensor x
output = ____
print(output)
Code bearbeiten und ausführen