Omgeving en neuraal netwerk instellen
Je begint met het opzetten van de omgeving die je in de hele cursus gebruikt: de Lunar Lander-omgeving, waarin een agent de boosters van een voertuig bedient dat probeert op de maan te landen.
torch, torch.nn, torch.optim en gym zijn in je oefeningen geïmporteerd.
Deze oefening maakt deel uit van de cursus
Deep Reinforcement Learning in Python
Oefeninstructies
- Initialiseer de Lunar Lander-omgeving in
gym(LunarLander-v2). - Definieer één lineaire transformatielaag met inputdimensie
dim_inputsen outputdimensiedim_outputs. - Instantier het neurale netwerk met inputdimensie
8en outputdimensie4. - Voorzie de Adam-optimizer van de parameters.
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
# Initiate the Lunar Lander environment
env = gym.____
class Network(nn.Module):
def __init__(self, dim_inputs, dim_outputs):
super(Network, self).__init__()
# Define a linear transformation layer
self.linear = ____
def forward(self, x):
return self.linear(x)
# Instantiate the network
network = ____
# Initialize the optimizer
optimizer = optim.Adam(____, lr=0.0001)
print("Network initialized as:\n", network)