Aan de slagGa gratis aan de slag

Omgeving en neuraal netwerk instellen

Je begint met het opzetten van de omgeving die je in de hele cursus gebruikt: de Lunar Lander-omgeving, waarin een agent de boosters van een voertuig bedient dat probeert op de maan te landen.

torch, torch.nn, torch.optim en gym zijn in je oefeningen geïmporteerd.

Deze oefening maakt deel uit van de cursus

Deep Reinforcement Learning in Python

Cursus bekijken

Oefeninstructies

  • Initialiseer de Lunar Lander-omgeving in gym (LunarLander-v2).
  • Definieer één lineaire transformatielaag met inputdimensie dim_inputs en outputdimensie dim_outputs.
  • Instantier het neurale netwerk met inputdimensie 8 en outputdimensie 4.
  • Voorzie de Adam-optimizer van de parameters.

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

# Initiate the Lunar Lander environment
env = gym.____

class Network(nn.Module):
    def __init__(self, dim_inputs, dim_outputs):
        super(Network, self).__init__()
        # Define a linear transformation layer 
        self.linear = ____
    def forward(self, x):
        return self.linear(x)

# Instantiate the network
network = ____

# Initialize the optimizer
optimizer = optim.Adam(____, lr=0.0001)

print("Network initialized as:\n", network)
Code bewerken en uitvoeren