ComeçarComece de graça

Verificação da toxicidade

Você trabalha em uma empresa de mídia social e precisa avaliar os comentários que estão sendo deixados na plataforma para garantir que os usuários estejam respeitando o código de conduta.

Sua tarefa é avaliar cuidadosamente o nível de toxicidade dos comentários de user_1 e user_2.

A métrica de toxicidade foi carregada para você como toxicity_metric.

Este exercício faz parte do curso

Introdução aos LLMs em Python

Ver curso

Instruções do exercício

  • Calcule a toxicidade individual de cada sequência.
  • Calcule a toxicidade máxima.
  • Calcule a taxa de toxicidade por comentário.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Calculate the individual toxicities
toxicity_1 = toxicity_metric.compute(predictions=____)
toxicity_2 = toxicity_metric.compute(predictions=____)
print("Toxicities (user_1):", toxicity_1['toxicity'])
print("Toxicities (user_2): ", toxicity_2['toxicity'])

# Calculate the maximum toxicities
toxicity_1_max = toxicity_metric.compute(____)
toxicity_2_max = toxicity_metric.compute(____)
print("Maximum toxicity (user_1):", toxicity_1_max['max_toxicity'])
print("Maximum toxicity (user_2): ", toxicity_2_max['max_toxicity'])

# Calculate the toxicity ratios
toxicity_1_ratio = ____(____)
toxicity_2_ratio = ____(____)
print("Toxicity ratio (user_1):", toxicity_1_ratio['toxicity_ratio'])
print("Toxicity ratio (user_2): ", toxicity_2_ratio['toxicity_ratio'])
Editar e executar o código