IniziaInizia gratis

Moderazione delle recensioni di prodotto

Stai facendo consulenza per una piattaforma healthcare che permette agli utenti di condividere esperienze di benessere e recensioni. Il/la responsabile della sicurezza degli utenti spiega:

"La sicurezza è la nostra priorità assoluta, ma vogliamo anche preservare le voci autentiche. Ci serve un sistema di moderazione dei contenuti che possa adattare il suo livello di severità in base alle diverse sezioni della community: alcune richiedono una protezione maggiore di altre."

Aiutali a creare un sistema di moderazione flessibile e sicuro. Le librerie boto3 e json, il client bedrock e model_id sono già stati precaricati.

Questo esercizio fa parte del corso

Introduzione ad Amazon Bedrock

Visualizza il corso

Istruzioni dell'esercizio

  • Definisci una funzione moderate_content() che accetti un text e un livello di severità, con "medium" come valore predefinito.

  • Usa un dizionario per impostare l'istruzione in base alla severità: "high", "medium" e "low".

  • Aggiungi una temperatura di 0.2 per mantenere la coerenza della risposta.

Esercizio pratico interattivo

Prova a risolvere questo esercizio completando il codice di esempio.

# Define the function
def ____(____, strictness_level="____"):
    # Define the dictionary of moderation instructions
    instruction = {"____": "Strictly analyze for inappropriate content. ",
                   "____": "Check for obviously toxic language. ",
                   "____": "Check the tone. "}

    request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
                               # Add a low temperature
                               "temperature": ____,
                               "messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
    
    response = bedrock.invoke_model(body=request_body, modelId=model_id)
    response_body = json.loads(response.get('body').read().decode())
    return response_body
Modifica ed esegui il codice