De afgeknipte waarschijnlijkheidsratio
Je gaat nu de afgeknipte waarschijnlijkheidsratio implementeren, een essentieel onderdeel van de PPO-doelfunctie.
Ter referentie: de waarschijnlijkheidsratio is gedefinieerd als: $$\frac{\pi_\theta(a_t|s_t)}{\pi_{\theta_{old}}(a_t|s_t)}$$
En de afgeknipte waarschijnlijkheidsratio is: \(\mathrm{clip}(r_t(\theta), 1-\varepsilon, 1+\varepsilon)\).
Deze oefening maakt deel uit van de cursus
Deep Reinforcement Learning in Python
Oefeninstructies
- Bereken de actieprobabiliteit
probuitaction_log_prob, enprob_olduitaction_log_prob_old. - Koppel de oude action log prob los van de Torch-gradientberekeningsgrafiek.
- Bereken de waarschijnlijkheidsratio.
- Knip de surrogaatdoelfunctie af (clippen).
Praktische interactieve oefening
Probeer deze oefening eens door deze voorbeeldcode in te vullen.
log_prob = torch.tensor(.5).log()
log_prob_old = torch.tensor(.4).log()
def calculate_ratios(action_log_prob, action_log_prob_old, epsilon):
# Obtain prob and prob_old
prob = ____
prob_old = ____
# Detach the old action log prob
prob_old_detached = ____.____()
# Calculate the probability ratio
ratio = ____ / ____
# Apply clipping
clipped_ratio = torch.____(ratio, ____, ____)
print(f"+{'-'*29}+\n| Ratio: {str(ratio)} |\n| Clipped ratio: {str(clipped_ratio)} |\n+{'-'*29}+\n")
return (ratio, clipped_ratio)
_ = calculate_ratios(log_prob, log_prob_old, epsilon=.2)