Die Sigmoid- und Softmax-Funktionen
Die Sigmoid- und Softmax-Funktionen sind wichtige Aktivierungsfunktionen beim Deep Learning und werden oft als letzter Schritt in einem neuronalen Netz verwendet.
- Sigmoid ist für die binäre Klassifizierung
- Softmax ist für die Mehrklassen-Klassifizierung
Wenn du einen voraktivierten Ausgangstensor eines Netzes hast, wende die entsprechende Aktivierungsfunktion an, um den endgültigen Ausgang zu erhalten.
torch.nn
wurde bereits als nn
importiert.
Diese Übung ist Teil des Kurses
Einführung in Deep Learning mit PyTorch
Interaktive Übung
Versuche dich an dieser Übung, indem du diesen Beispielcode vervollständigst.
input_tensor = torch.tensor([[2.4]])
# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)