Aan de slagGa gratis aan de slag

De gewichten handmatig bijwerken

Nu je weet hoe je gewichten en bias kunt benaderen, ga je handmatig het werk doen van de PyTorch-optimizer. Hoewel PyTorch dit automatiseert, helpt het om dit zelf te oefenen zodat je gevoel krijgt voor hoe modellen leren en zich aanpassen. Dat inzicht is waardevol bij het debuggen of finetunen van neurale netwerken.

Er is een neuraal netwerk met drie lagen gemaakt en opgeslagen in de variabele model. Dit netwerk is gebruikt voor een forward pass en de verlieswaarde en de afgeleiden daarvan zijn berekend. Er is een standaard leersnelheid, lr, gekozen om de gradiënten te schalen bij het updaten.

Deze oefening maakt deel uit van de cursus

Introductie tot Deep Learning met PyTorch

Cursus bekijken

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

weight0 = model[0].weight
weight1 = model[1].weight
weight2 = model[2].weight

# Access the gradients of the weight of each linear layer
grads0 = ____
grads1 = ____
grads2 = ____
Code bewerken en uitvoeren