Moderation von Produktbewertungen
Du bist Berater für eine Gesundheitsplattform, auf der Nutzer ihre Wellness-Erfahrungen und Bewertungen teilen können. Der Leiter der Abteilung für Benutzersicherheit sagt dazu:
„Sicherheit ist für uns das Wichtigste, aber wir wollen auch echte Stimmen bewahren. Wir brauchen ein System zur Moderation von Inhalten, das seine Strenge je nach Community-Bereich anpassen kann – manche Bereiche brauchen mehr Schutz als andere.
Hilf ihnen dabei, ein flexibles und sicheres Moderationssystem aufzubauen. Die Bibliotheken „ boto3
“ und „ json
“, der Client „ bedrock
“ und „ model_id
“ sind schon installiert.
Diese Übung ist Teil des Kurses
Einführung in Amazon Bedrock
Anleitung zur Übung
Definiere eine Funktion „
moderate_content()
“, die ein „text
“ und eine Strenge akzeptiert, wobei „"medium"
“ der Standardwert ist.Benutz ein Wörterbuch, um die Anweisung nach Strenge festzulegen:
"high"
,"medium"
und"low"
.Füge eine Temperatur von
0.2
hinzu, damit die Reaktion gleichmäßig bleibt.
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body