Moderação de avaliações de produtos
Você tá dando uma força pra uma plataforma de saúde que deixa as pessoas compartilharem experiências e opiniões sobre bem-estar. O chefe de segurança do usuário explica:
“A segurança é nossa prioridade, mas também queremos manter as vozes autênticas. Precisamos de um sistema de moderação de conteúdo que possa ajustar o nível de rigor de acordo com as diferentes seções da comunidade — algumas precisam de mais proteção do que outras.
Ajude-os a criar um sistema de moderação flexível e seguro. As bibliotecas boto3
e json
, o cliente bedrock
e o model_id
já estão instalados.
Este exercício faz parte do curso
Introdução ao Amazon Bedrock
Instruções do exercício
Defina uma função
moderate_content()
que aceite umtext
e um nível de rigor com"medium"
como padrão.Use um dicionário para definir a instrução com base na rigidez:
"high"
,"medium"
e"low"
.Adicione uma temperatura de
0.2
para manter a resposta consistente.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body