LoslegenKostenlos loslegen

Antwortlänge mit Tokens steuern

Um die Antworten von QuickAid besser zu steuern, können Nutzer jetzt entweder auf "Quick Answer" für einen tweet-langen Abriss oder auf "Deep Dive" für eine ausführlichere Erklärung klicken.
Implementiere beide Aufrufe und gib die Ergebnisse nebeneinander aus, damit das Hackathon‑Gremium den Unterschied auf einen Blick sieht.

Die Bibliothek anthropic wurde bereits importiert und der client ist vordefiniert.

Diese Übung ist Teil des Kurses

Einführung in Claude-Modelle

Kurs anzeigen

Anleitung zur Übung

  • Setze max_tokens auf 25 für die kurze Antwort, um eine sehr knappe Antwort zu erhalten (etwa 15–20 Wörter).
  • Setze max_tokens auf 200 für die lange Antwort, um eine detaillierte Erklärung zu erhalten (etwa 150 Wörter).

Interaktive Übung

Vervollständige den Beispielcode, um diese Übung erfolgreich abzuschließen.

prompt = "Explain what artificial intelligence is."
# Create short response (25 tokens)
short_response = client.messages.create(model="claude-sonnet-4-6", max_tokens=____, messages=[{"role": "user", "content": prompt}])
# Create long response (200 tokens)
long_response = client.messages.create(model="claude-sonnet-4-6", max_tokens=____, messages=[{"role": "user", "content": prompt}])

print("Short response:", short_response.content[0].text)
print("Long response:", long_response.content[0].text)
Code bearbeiten und ausführen