Aktivierungen: ReLU vs. ELU
Die Wahl der im Modell verwendeten Aktivierungsfunktionen (in Kombination mit der entsprechenden Gewichtsinitialisierung) kann einen starken Einfluss auf den Trainingsprozess haben. Insbesondere kann die richtige Aktivierung verhindern, dass das Netz Probleme mit instabilen Gradienten bekommt.
In der vorherigen Aufgabe hast du von ReLU- zu ELU-Aktivierungen gewechselt. Erinnerst du dich, welche Eigenschaften der beiden Aktivierungen diesen Wechsel rechtfertigen?
Diese Übung ist Teil des Kurses
Deep Learning mit PyTorch für Fortgeschrittene
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
