Die Sigmoid- und Softmax-Funktionen
Die Sigmoid- und Softmax-Funktionen sind wichtige Aktivierungsfunktionen beim Deep Learning und werden oft als letzter Schritt in einem neuronalen Netz verwendet.
- Sigmoid ist für die binäre Klassifizierung
- Softmax ist für die Mehrklassen-Klassifizierung
Liegt ein voraktivierter Ausgangstensor eines Netzes vor, wende die entsprechende Aktivierungsfunktion an, um den finalen Ausgang zu erhalten.
torch.nn
wurde bereits als nn
importiert.
Diese Übung ist Teil des Kurses
Einführung in Deep Learning mit PyTorch
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
input_tensor = torch.tensor([[2.4]])
# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)