Contrôle de la toxicité
Vous travaillez dans une entreprise de médias sociaux et devez évaluer les commentaires laissés sur la plateforme pour vous assurer que les utilisateurs respectent le code de conduite.
Votre tâche consiste à évaluer soigneusement le niveau de toxicité des commentaires de user_1
et user_2
.
La mesure de la toxicité a été chargée pour vous à l'adresse toxicity_metric
.
Cet exercice fait partie du cours
Introduction aux LLM en Python
Instructions
- Calculez la toxicité individuelle de chaque séquence.
- Calculez la toxicité maximale.
- Calculez le ratio de toxicité par commentaire.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Calculate the individual toxicities
toxicity_1 = toxicity_metric.compute(predictions=____)
toxicity_2 = toxicity_metric.compute(predictions=____)
print("Toxicities (user_1):", toxicity_1['toxicity'])
print("Toxicities (user_2): ", toxicity_2['toxicity'])
# Calculate the maximum toxicities
toxicity_1_max = toxicity_metric.compute(____)
toxicity_2_max = toxicity_metric.compute(____)
print("Maximum toxicity (user_1):", toxicity_1_max['max_toxicity'])
print("Maximum toxicity (user_2): ", toxicity_2_max['max_toxicity'])
# Calculate the toxicity ratios
toxicity_1_ratio = ____(____)
toxicity_2_ratio = ____(____)
print("Toxicity ratio (user_1):", toxicity_1_ratio['toxicity_ratio'])
print("Toxicity ratio (user_2): ", toxicity_2_ratio['toxicity_ratio'])