LoslegenKostenlos loslegen

Moderation von Produktbewertungen

Du berätst eine Healthcare-Plattform, auf der Nutzer:innen Wellness-Erfahrungen und Bewertungen teilen. Die Leiterin für Nutzersicherheit erklärt:

"Sicherheit hat für uns höchste Priorität, aber wir wollen auch authentische Stimmen erhalten. Wir brauchen ein Content-Moderationssystem, das seine Strenge je nach Community-Bereich anpassen kann – manche brauchen mehr Schutz als andere."

Hilf ihnen, ein flexibles und sicheres Moderationssystem aufzubauen. Die Bibliotheken boto3 und json, der bedrock-Client und model_id wurden bereits geladen.

Diese Übung ist Teil des Kurses

Einführung in Amazon Bedrock

Kurs anzeigen

Anleitung zur Übung

  • Definiere eine Funktion moderate_content(), die einen text und eine Strenge-Einstellung akzeptiert, mit "medium" als Standardwert.

  • Verwende ein Dictionary, um die Anweisung basierend auf der Strenge festzulegen: "high", "medium" und "low".

  • Füge eine Temperatur von 0.2 hinzu, um die Antwort konsistent zu halten.

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

# Define the function
def ____(____, strictness_level="____"):
    # Define the dictionary of moderation instructions
    instruction = {"____": "Strictly analyze for inappropriate content. ",
                   "____": "Check for obviously toxic language. ",
                   "____": "Check the tone. "}

    request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
                               # Add a low temperature
                               "temperature": ____,
                               "messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
    
    response = bedrock.invoke_model(body=request_body, modelId=model_id)
    response_body = json.loads(response.get('body').read().decode())
    return response_body
Code bearbeiten und ausführen