LoslegenKostenlos loslegen

Aktivierungen: ReLU vs. ELU

Die Wahl der im Modell verwendeten Aktivierungsfunktionen (in Kombination mit der entsprechenden Gewichtsinitialisierung) kann einen starken Einfluss auf den Trainingsprozess haben. Insbesondere kann die richtige Aktivierung verhindern, dass das Netz Probleme mit instabilen Gradienten bekommt.

In der vorherigen Aufgabe hast du von ReLU- zu ELU-Aktivierungen gewechselt. Erinnerst du dich, welche Eigenschaften der beiden Aktivierungen diesen Wechsel rechtfertigen?

Diese Übung ist Teil des Kurses

Deep Learning mit PyTorch für Fortgeschrittene

Kurs anzeigen

Interaktive Übung

In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.

Übung starten