Modération des avis sur les produits
Vous êtes consultant pour une plateforme de santé qui permet aux utilisateurs de partager leurs expériences et leurs avis en matière de bien-être. Le responsable de la sécurité des utilisateurs explique :
« La sécurité est notre priorité absolue, mais nous souhaitons également préserver l'authenticité des voix. » Nous avons besoin d'un système de modération du contenu capable d'adapter son niveau de rigueur en fonction des différentes sections de la communauté, certaines nécessitant une protection plus élevée que d'autres.
Aidez-les à mettre en place un système de modération flexible et sécurisé. Les bibliothèques boto3
et json
, le client bedrock
et model_id
ont été préchargés.
Cet exercice fait partie du cours
Introduction à Amazon Bedrock
Instructions
Définissez une fonction d'
moderate_content()
qui accepte untext
et un niveau de strictitude avec"medium"
comme valeur par défaut.Veuillez utiliser un dictionnaire pour définir les instructions en fonction de leur rigueur :
"high"
,"medium"
et"low"
.Ajoutez une température de
0.2
pour maintenir une réponse constante.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body