Modération des avis sur les produits
Vous êtes consultant pour une plateforme de santé qui permet aux utilisateurs de partager leurs expériences et leurs avis en matière de bien-être. Le responsable de la sécurité des utilisateurs explique :
« La sécurité est notre priorité absolue, mais nous souhaitons également préserver l'authenticité des voix. » Nous avons besoin d'un système de modération du contenu capable d'adapter son niveau de rigueur en fonction des différentes sections de la communauté, certaines nécessitant une protection plus élevée que d'autres.
Aidez-les à mettre en place un système de modération flexible et sécurisé. Les bibliothèques boto3 et json, le client bedrock et model_id ont été préchargés.
Cet exercice fait partie du cours
Introduction à Amazon Bedrock
Instructions
Définissez une fonction d'
moderate_content()qui accepte untextet un niveau de strictitude avec"medium"comme valeur par défaut.Veuillez utiliser un dictionnaire pour définir les instructions en fonction de leur rigueur :
"high","medium"et"low".Ajoutez une température de
0.2pour maintenir une réponse constante.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body