CommencerCommencer gratuitement

Contrôle de la toxicité

Vous travaillez dans une entreprise de médias sociaux et devez évaluer les commentaires laissés sur la plateforme pour vous assurer que les utilisateurs respectent le code de conduite.

Votre tâche consiste à évaluer soigneusement le niveau de toxicité des commentaires de user_1 et user_2.

La mesure de la toxicité a été chargée pour vous à l'adresse toxicity_metric.

Cet exercice fait partie du cours

Introduction aux LLM en Python

Afficher le cours

Instructions

  • Calculez la toxicité individuelle de chaque séquence.
  • Calculez la toxicité maximale.
  • Calculez le ratio de toxicité par commentaire.

Exercice interactif pratique

Essayez cet exercice en complétant cet exemple de code.

# Calculate the individual toxicities
toxicity_1 = toxicity_metric.compute(predictions=____)
toxicity_2 = toxicity_metric.compute(predictions=____)
print("Toxicities (user_1):", toxicity_1['toxicity'])
print("Toxicities (user_2): ", toxicity_2['toxicity'])

# Calculate the maximum toxicities
toxicity_1_max = toxicity_metric.compute(____)
toxicity_2_max = toxicity_metric.compute(____)
print("Maximum toxicity (user_1):", toxicity_1_max['max_toxicity'])
print("Maximum toxicity (user_2): ", toxicity_2_max['max_toxicity'])

# Calculate the toxicity ratios
toxicity_1_ratio = ____(____)
toxicity_2_ratio = ____(____)
print("Toxicity ratio (user_1):", toxicity_1_ratio['toxicity_ratio'])
print("Toxicity ratio (user_2): ", toxicity_2_ratio['toxicity_ratio'])
Modifier et exécuter le code