Antwortlänge mit Tokens steuern
Um die Antworten von QuickAid besser zu steuern, können Nutzer jetzt entweder auf "Quick Answer" für einen tweet-kurzen Text oder auf "Deep Dive" für eine ausführlichere Erklärung klicken.
Implementiere beide Aufrufe und gib die Ergebnisse nebeneinander aus, damit das Hackathon-Gremium den Unterschied auf einen Blick sieht.
Die Bibliothek anthropic wurde bereits importiert und der client ist vordefiniert.
Diese Übung ist Teil des Kurses
Einführung in Claude-Modelle
Anleitung zur Übung
- Setze
max_tokensfür die kurze Antwort auf 25, um eine sehr knappe Antwort zu erhalten (ca. 15–20 Wörter). - Setze
max_tokensfür die lange Antwort auf 200, um eine ausführliche Erklärung zu erhalten (ca. 150 Wörter).
Interaktive Übung
Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.
prompt = "Explain what artificial intelligence is."
# Create short response (25 tokens)
short_response = client.messages.create(model="claude-sonnet-4-0", max_tokens=____, messages=[{"role": "user", "content": prompt}])
# Create long response (200 tokens)
long_response = client.messages.create(model="claude-sonnet-4-0", max_tokens=____, messages=[{"role": "user", "content": prompt}])
print("Short response:", short_response.content[0].text)
print("Long response:", long_response.content[0].text)