Aan de slagGa gratis aan de slag

De sigmoid- en softmax-functies

De functies sigmoid en softmax zijn belangrijke activatiefuncties in deep learning en worden vaak als laatste stap in een neuraal netwerk gebruikt.

  • Sigmoid is voor binaire classificatie
  • Softmax is voor multi-class classificatie

Gegeven een pre-activatie-uitvoertensor van een netwerk, pas de juiste activatiefunctie toe om de uiteindelijke output te krijgen.

torch.nn is al geïmporteerd als nn.

Deze oefening maakt deel uit van de cursus

Introductie tot Deep Learning met PyTorch

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

input_tensor = torch.tensor([[2.4]])

# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)
Code bewerken en uitvoeren