Mengendalikan panjang respons dengan token
Untuk mengendalikan respons dari QuickAid dengan lebih baik, pengguna kini dapat mengeklik "Quick Answer" untuk ringkasan seukuran tweet, atau "Deep Dive" untuk penjelasan yang lebih lengkap.
Implementasikan kedua pemanggilan tersebut dan cetak hasilnya berdampingan agar panel hackathon dapat melihat perbedaannya sekilas.
Pustaka anthropic sudah diimpor dan client sudah didefinisikan sebelumnya.
Latihan ini adalah bagian dari kursus
Pengantar Model Claude
Petunjuk latihan
- Atur
max_tokensmenjadi 25 untuk respons singkat agar mendapatkan jawaban yang sangat ringkas (sekitar 15–20 kata). - Atur
max_tokensmenjadi 200 untuk respons panjang agar mendapatkan penjelasan terperinci (sekitar 150 kata).
Latihan interaktif praktis
Cobalah latihan ini dengan menyelesaikan kode contoh berikut.
prompt = "Explain what artificial intelligence is."
# Create short response (25 tokens)
short_response = client.messages.create(model="claude-sonnet-4-0", max_tokens=____, messages=[{"role": "user", "content": prompt}])
# Create long response (200 tokens)
long_response = client.messages.create(model="claude-sonnet-4-0", max_tokens=____, messages=[{"role": "user", "content": prompt}])
print("Short response:", short_response.content[0].text)
print("Long response:", long_response.content[0].text)