Istanziamento della Q-Network
Ora che ne hai definito l'architettura, sei pronto a istanziare la rete effettiva che l'agente utilizzerà, insieme al suo ottimizzatore. L'ambiente Lunar Lander ha uno spazio degli stati di dimensione 8 e uno spazio delle azioni di dimensione 4 (corrispondenti a 0: non fare nulla, 1: propulsore sinistro, 2: motore principale, 3: propulsore destro).
La classe QNetwork dell'esercizio precedente è a tua disposizione.
Questo esercizio fa parte del corso
Deep Reinforcement Learning in Python
Istruzioni dell'esercizio
- Istanzia una Q Network per l'ambiente Lunar Lander.
- Definisci l'ottimizzatore Adam per la rete neurale, specificando un tasso di apprendimento pari a 0.0001.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
state_size = 8
action_size = 4
# Instantiate the Q Network
q_network = QNetwork(____, ____)
# Specify the optimizer learning rate
optimizer = optim.Adam(q_network.parameters(), ____)
print("Q-Network initialized as:\n", q_network)