Antwortlänge mit Tokens steuern
Um die Antworten von QuickAid besser zu steuern, können Nutzer jetzt entweder auf "Quick Answer" für einen tweet-langen Abriss oder auf "Deep Dive" für eine ausführlichere Erklärung klicken.
Implementiere beide Aufrufe und gib die Ergebnisse nebeneinander aus, damit das Hackathon‑Gremium den Unterschied auf einen Blick sieht.
Die Bibliothek anthropic wurde bereits importiert und der client ist vordefiniert.
Diese Übung ist Teil des Kurses
Einführung in Claude-Modelle
Anleitung zur Übung
- Setze
max_tokensauf 25 für die kurze Antwort, um eine sehr knappe Antwort zu erhalten (etwa 15–20 Wörter). - Setze
max_tokensauf 200 für die lange Antwort, um eine detaillierte Erklärung zu erhalten (etwa 150 Wörter).
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
prompt = "Explain what artificial intelligence is."
# Create short response (25 tokens)
short_response = client.messages.create(model="claude-sonnet-4-6", max_tokens=____, messages=[{"role": "user", "content": prompt}])
# Create long response (200 tokens)
long_response = client.messages.create(model="claude-sonnet-4-6", max_tokens=____, messages=[{"role": "user", "content": prompt}])
print("Short response:", short_response.content[0].text)
print("Long response:", long_response.content[0].text)