Le funzioni sigmoid e softmax
Le funzioni di attivazione sigmoid e softmax sono fondamentali nel deep learning e spesso costituiscono l’ultimo passaggio in una rete neurale.
- Sigmoid per la classificazione binaria
- Softmax per la classificazione multi-classe
Dato un tensore di output pre-attivazione dalla rete, applica la funzione di attivazione appropriata per ottenere l’output finale.
torch.nn è già stato importato come nn.
Questo esercizio fa parte del corso
Introduzione al Deep Learning con PyTorch
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
input_tensor = torch.tensor([[2.4]])
# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)