Modération des avis produits
Vous conseillez une plateforme santé qui permet aux utilisateurs de partager des expériences bien-être et des avis. La responsable de la sécurité des utilisateurs explique :
"La sécurité est notre priorité, mais nous voulons aussi préserver des voix authentiques. Nous avons besoin d’un système de modération de contenu capable d’adapter son niveau de stricteness selon les sections de la communauté : certaines nécessitent une protection plus élevée que d’autres."
Aidez-les à construire un système de modération à la fois flexible et sûr. Les bibliothèques boto3 et json, le client bedrock et le model_id ont été préchargés.
Cet exercice fait partie du cours
Introduction à Amazon Bedrock
Instructions
Définissez une fonction
moderate_content()qui accepte untextet un niveau de stricteness, avec"medium"comme valeur par défaut.Utilisez un dictionnaire pour définir l’instruction selon le niveau de stricteness :
"high","medium"et"low".Ajoutez une température de
0.2pour maintenir une réponse cohérente.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body