Moderación de reseñas de productos
Estás asesorando a una plataforma de salud que permite a los usuarios compartir experiencias y opiniones sobre bienestar. El responsable de seguridad de los usuarios explica:
«La seguridad es nuestra máxima prioridad, pero también queremos preservar las voces auténticas». Necesitamos un sistema de moderación de contenidos que pueda adaptar su rigor en función de las diferentes secciones de la comunidad, ya que algunas necesitan mayor protección que otras.
Ayúdalos a crear un sistema de moderación flexible y seguro. Las bibliotecas boto3
y json
, el cliente bedrock
y model_id
han sido precargados.
Este ejercicio forma parte del curso
Introducción a Amazon Bedrock
Instrucciones del ejercicio
Define una función «
moderate_content()
» que acepte un «text
» y un nivel de estrictez, siendo «"medium"
» el valor predeterminado.Utiliza un diccionario para establecer la instrucción en función del rigor:
"high"
,"medium"
y"low"
.Añade una temperatura de
0.2
para mantener una respuesta constante.
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
# Define the function
def ____(____, strictness_level="____"):
# Define the dictionary of moderation instructions
instruction = {"____": "Strictly analyze for inappropriate content. ",
"____": "Check for obviously toxic language. ",
"____": "Check the tone. "}
request_body = json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": 50,
# Add a low temperature
"temperature": ____,
"messages": [{"role": "user", "content": f"{instruction[strictness_level]}\n{text}"}]})
response = bedrock.invoke_model(body=request_body, modelId=model_id)
response_body = json.loads(response.get('body').read().decode())
return response_body