Controlar la longitud de la respuesta con tokens
Para controlar mejor las respuestas de QuickAid, ahora los usuarios pueden hacer clic en "Quick Answer", para un texto del tamaño de un tuit, o en "Deep Dive", para una explicación más completa.
Implementa ambas llamadas e imprime los resultados en paralelo para que el jurado del hackathon vea la diferencia de un vistazo.
La librería anthropic ya se ha importado y el client está predefinido.
Este ejercicio forma parte del curso
Introducción a los modelos Claude
Instrucciones del ejercicio
- Establece
max_tokensen 25 para la respuesta breve y así obtener una contestación muy concisa (unas 15-20 palabras). - Establece
max_tokensen 200 para la respuesta extensa y así obtener una explicación detallada (unas 150 palabras).
Ejercicio interactivo práctico
Prueba este ejercicio y completa el código de muestra.
prompt = "Explain what artificial intelligence is."
# Create short response (25 tokens)
short_response = client.messages.create(model="claude-3-7-sonnet-latest", max_tokens=____, messages=[{"role": "user", "content": prompt}])
# Create long response (200 tokens)
long_response = client.messages.create(model="claude-3-7-sonnet-latest", max_tokens=____, messages=[{"role": "user", "content": prompt}])
print("Short response:", short_response.content[0].text)
print("Long response:", long_response.content[0].text)