De sigmoid- en softmax-functies
De functies sigmoid en softmax zijn belangrijke activatiefuncties in deep learning en worden vaak als laatste stap in een neuraal netwerk gebruikt.
- Sigmoid is voor binaire classificatie
- Softmax is voor multi-class classificatie
Gegeven een pre-activatie-uitvoertensor van een netwerk, pas de juiste activatiefunctie toe om de uiteindelijke output te krijgen.
torch.nn is al geïmporteerd als nn.
Deze oefening maakt deel uit van de cursus
Introductie tot Deep Learning met PyTorch
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
input_tensor = torch.tensor([[2.4]])
# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)