ComeçarComece de graça

Moderação de avaliações de produto

Você está prestando consultoria para uma plataforma de saúde que permite que usuários compartilhem experiências de bem-estar e avaliações. A líder de Segurança do Usuário explica:

"A segurança é nossa maior prioridade, mas também queremos preservar vozes autênticas. Precisamos de um sistema de moderação de conteúdo que possa ajustar o nível de rigor com base nas diferentes seções da comunidade — algumas precisam de proteção maior do que outras."

Ajude a construir um sistema de moderação flexível e seguro. As bibliotecas boto3 e json, o cliente bedrock e o model_id já foram pré-carregados.

Este exercício faz parte do curso

Introdução ao Amazon Bedrock

Ver curso

Instruções do exercício

  • Defina uma função moderate_content() que aceite um text e um nível de rigor, com "medium" como padrão.

  • Use um dicionário para definir a instrução com base no nível de rigor: "high", "medium" e "low".

  • Adicione uma temperatura de 0.2 para manter a resposta consistente.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Define the function
def ____(____, strictness_level="____"):
    # Define the dictionary of moderation instructions
    instruction = {"____": "Strictly analyze for inappropriate content. ",
                   "____": "Check for obviously toxic language. ",
                   "____": "Check the tone. "}

    request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
                               # Add a low temperature
                               "temperature": ____,
                               "messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
    
    response = bedrock.invoke_model(body=request_body, modelId=model_id)
    response_body = json.loads(response.get('body').read().decode())
    return response_body
Editar e executar o código