ComenzarEmpieza gratis

Comprobación de la toxicidad

Trabajas en una empresa de redes sociales y tienes que evaluar los comentarios que se dejan en la plataforma para asegurarte de que los usuarios respetan el código de conducta.

Tu tarea consiste en evaluar cuidadosamente el nivel de toxicidad de los comentarios de user_1 y user_2.

La métrica de toxicidad se ha cargado para ti como toxicity_metric.

Este ejercicio forma parte del curso

Introduction to LLMs in Python

Ver curso

Instrucciones de ejercicio

  • Calcula la toxicidad individual de cada secuencia.
  • Calcula la toxicidad máxima.
  • Calcula el índice de toxicidad por comentario.

Ejercicio interactivo práctico

Pruebe este ejercicio completando este código de muestra.

# Calculate the individual toxicities
toxicity_1 = toxicity_metric.compute(predictions=____)
toxicity_2 = toxicity_metric.compute(predictions=____)
print("Toxicities (user_1):", toxicity_1['toxicity'])
print("Toxicities (user_2): ", toxicity_2['toxicity'])

# Calculate the maximum toxicities
toxicity_1_max = toxicity_metric.compute(____)
toxicity_2_max = toxicity_metric.compute(____)
print("Maximum toxicity (user_1):", toxicity_1_max['max_toxicity'])
print("Maximum toxicity (user_2): ", toxicity_2_max['max_toxicity'])

# Calculate the toxicity ratios
toxicity_1_ratio = ____(____)
toxicity_2_ratio = ____(____)
print("Toxicity ratio (user_1):", toxicity_1_ratio['toxicity_ratio'])
print("Toxicity ratio (user_2): ", toxicity_2_ratio['toxicity_ratio'])
Editar y ejecutar código