Comprobación de la toxicidad
Trabajas en una empresa de redes sociales y tienes que evaluar los comentarios que se dejan en la plataforma para asegurarte de que los usuarios respetan el código de conducta.
Tu tarea consiste en evaluar cuidadosamente el nivel de toxicidad de los comentarios de user_1
y user_2
.
La métrica de toxicidad se ha cargado para ti como toxicity_metric
.
Este ejercicio forma parte del curso
Introduction to LLMs in Python
Instrucciones de ejercicio
- Calcula la toxicidad individual de cada secuencia.
- Calcula la toxicidad máxima.
- Calcula el índice de toxicidad por comentario.
Ejercicio interactivo práctico
Pruebe este ejercicio completando este código de muestra.
# Calculate the individual toxicities
toxicity_1 = toxicity_metric.compute(predictions=____)
toxicity_2 = toxicity_metric.compute(predictions=____)
print("Toxicities (user_1):", toxicity_1['toxicity'])
print("Toxicities (user_2): ", toxicity_2['toxicity'])
# Calculate the maximum toxicities
toxicity_1_max = toxicity_metric.compute(____)
toxicity_2_max = toxicity_metric.compute(____)
print("Maximum toxicity (user_1):", toxicity_1_max['max_toxicity'])
print("Maximum toxicity (user_2): ", toxicity_2_max['max_toxicity'])
# Calculate the toxicity ratios
toxicity_1_ratio = ____(____)
toxicity_2_ratio = ____(____)
print("Toxicity ratio (user_1):", toxicity_1_ratio['toxicity_ratio'])
print("Toxicity ratio (user_2): ", toxicity_2_ratio['toxicity_ratio'])