ComenzarEmpieza gratis

Moderación de reseñas de productos

Estás asesorando a una plataforma de salud que permite a los usuarios compartir experiencias y reseñas de bienestar. La responsable de Seguridad del Usuario te explica:

"La seguridad es nuestra prioridad, pero también queremos mantener voces auténticas. Necesitamos un sistema de moderación de contenido que pueda ajustar su rigor según las distintas secciones de la comunidad: algunas requieren más protección que otras."

Ayúdales a crear un sistema de moderación flexible y seguro. Las bibliotecas boto3 y json, el cliente bedrock y model_id ya están precargados.

Este ejercicio forma parte del curso

Introducción a Amazon Bedrock

Ver curso

Instrucciones del ejercicio

  • Define una función moderate_content() que acepte un text y un nivel de rigor, con "medium" como valor predeterminado.

  • Usa un diccionario para establecer la instrucción según el nivel de rigor: "high", "medium" y "low".

  • Añade una temperatura de 0.2 para mantener la coherencia de la respuesta.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Define the function
def ____(____, strictness_level="____"):
    # Define the dictionary of moderation instructions
    instruction = {"____": "Strictly analyze for inappropriate content. ",
                   "____": "Check for obviously toxic language. ",
                   "____": "Check the tone. "}

    request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
                               # Add a low temperature
                               "temperature": ____,
                               "messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
    
    response = bedrock.invoke_model(body=request_body, modelId=model_id)
    response_body = json.loads(response.get('body').read().decode())
    return response_body
Editar y ejecutar código