LoslegenKostenlos loslegen

Die Sigmoid- und Softmax-Funktionen

Die Sigmoid- und Softmax-Funktionen sind wichtige Aktivierungsfunktionen beim Deep Learning und werden oft als letzter Schritt in einem neuronalen Netz verwendet.

  • Sigmoid ist für die binäre Klassifizierung
  • Softmax ist für die Mehrklassen-Klassifizierung

Wenn du einen voraktivierten Ausgangstensor eines Netzes hast, wende die entsprechende Aktivierungsfunktion an, um den endgültigen Ausgang zu erhalten.

torch.nn wurde bereits als nn importiert.

Diese Übung ist Teil des Kurses

Einführung in Deep Learning mit PyTorch

Kurs anzeigen

Interaktive Übung

Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.

input_tensor = torch.tensor([[2.4]])

# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)
Code bearbeiten und ausführen