LoslegenKostenlos loslegen

ReLU implementieren

Die Rectified Linear Unit (ReLU) ist eine weit verbreitete Aktivierungsfunktion im Deep Learning, mit der Herausforderungen wie das Problem der verschwindenden Gradienten gelöst werden.

In dieser Aufgabe implementierst du ReLU in PyTorch, wendest es sowohl auf positive als auch auf negative Werte an und beobachtest die Ergebnisse.

Das Paket torch.nn wurde bereits für dich als nn importiert.

Diese Übung ist Teil des Kurses

Einführung in Deep Learning mit PyTorch

Kurs anzeigen

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

# Create a ReLU function with PyTorch
relu_pytorch = ____
Code bearbeiten und ausführen