Moderación de reseñas de productos
Estás asesorando a una plataforma de salud que permite a los usuarios compartir experiencias y reseñas de bienestar. La responsable de Seguridad del Usuario te explica:
"La seguridad es nuestra prioridad, pero también queremos mantener voces auténticas. Necesitamos un sistema de moderación de contenido que pueda ajustar su rigor según las distintas secciones de la comunidad: algunas requieren más protección que otras."
Ayúdales a crear un sistema de moderación flexible y seguro. Las bibliotecas boto3 y json, el cliente bedrock y model_id ya están precargados.
Este ejercicio forma parte del curso
Introducción a Amazon Bedrock
Instrucciones del ejercicio
Define una función
moderate_content()que acepte untexty un nivel de rigor, con"medium"como valor predeterminado.Usa un diccionario para establecer la instrucción según el nivel de rigor:
"high","medium"y"low".Añade una temperatura de
0.2para mantener la coherencia de la respuesta.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body