IniziaInizia gratis

Le funzioni sigmoid e softmax

Le funzioni di attivazione sigmoid e softmax sono fondamentali nel deep learning e spesso costituiscono l’ultimo passaggio in una rete neurale.

  • Sigmoid per la classificazione binaria
  • Softmax per la classificazione multi-classe

Dato un tensore di output pre-attivazione dalla rete, applica la funzione di attivazione appropriata per ottenere l’output finale.

torch.nn è già stato importato come nn.

Questo esercizio fa parte del corso

Introduzione al Deep Learning con PyTorch

Visualizza il corso

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

input_tensor = torch.tensor([[2.4]])

# Create a sigmoid function and apply it on input_tensor
sigmoid = nn.____()
probability = ____(____)
print(probability)
Modifica ed esegui il codice