Contrôler la longueur des réponses avec des jetons
Pour mieux contrôler les réponses de QuickAid, les utilisateurs peuvent désormais cliquer sur "Quick Answer", pour un court texte au format tweet, ou sur "Deep Dive", pour une explication plus complète.
Implémentez les deux appels et affichez les résultats côte à côte afin que le jury du hackathon voie d’un coup d’œil la différence.
La bibliothèque anthropic a déjà été importée et le client a déjà été défini.
Cet exercice fait partie du cours
Introduction aux modèles Claude
Instructions
- Définissez
max_tokensà 25 pour la réponse courte afin d’obtenir une réponse très concise (environ 15 à 20 mots). - Définissez
max_tokensà 200 pour la réponse longue afin d’obtenir une explication détaillée (environ 150 mots).
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
prompt = "Explain what artificial intelligence is."
# Create short response (25 tokens)
short_response = client.messages.create(model="claude-3-7-sonnet-latest", max_tokens=____, messages=[{"role": "user", "content": prompt}])
# Create long response (200 tokens)
long_response = client.messages.create(model="claude-3-7-sonnet-latest", max_tokens=____, messages=[{"role": "user", "content": prompt}])
print("Short response:", short_response.content[0].text)
print("Long response:", long_response.content[0].text)