Aan de slagGa gratis aan de slag

De afgeknipte waarschijnlijkheidsratio

Je gaat nu de afgeknipte waarschijnlijkheidsratio implementeren, een essentieel onderdeel van de PPO-doelfunctie.

Ter referentie: de waarschijnlijkheidsratio is gedefinieerd als: $$\frac{\pi_\theta(a_t|s_t)}{\pi_{\theta_{old}}(a_t|s_t)}$$

En de afgeknipte waarschijnlijkheidsratio is: \(\mathrm{clip}(r_t(\theta), 1-\varepsilon, 1+\varepsilon)\).

Deze oefening maakt deel uit van de cursus

Deep Reinforcement Learning in Python

Cursus bekijken

Oefeninstructies

  • Bereken de actieprobabiliteit prob uit action_log_prob, en prob_old uit action_log_prob_old.
  • Koppel de oude action log prob los van de Torch-gradientberekeningsgrafiek.
  • Bereken de waarschijnlijkheidsratio.
  • Knip de surrogaatdoelfunctie af (clippen).

Praktische interactieve oefening

Probeer deze oefening eens door deze voorbeeldcode in te vullen.

log_prob = torch.tensor(.5).log()
log_prob_old = torch.tensor(.4).log()

def calculate_ratios(action_log_prob, action_log_prob_old, epsilon):
    # Obtain prob and prob_old
    prob = ____
    prob_old = ____
    # Detach the old action log prob
    prob_old_detached = ____.____()
    # Calculate the probability ratio
    ratio = ____ / ____
    # Apply clipping
    clipped_ratio = torch.____(ratio, ____, ____)
    print(f"+{'-'*29}+\n|         Ratio: {str(ratio)} |\n| Clipped ratio: {str(clipped_ratio)} |\n+{'-'*29}+\n")
    return (ratio, clipped_ratio)

_ = calculate_ratios(log_prob, log_prob_old, epsilon=.2)
Code bewerken en uitvoeren