Controlling output with top_p and max_tokens
Il team marketing ora vuole due versioni di una storia su ChefBot, il robot da cucina di punta: un breve resoconto per gli investitori e un post sul blog più creativo con un “dietro le quinte”.
In questo esercizio, le librerie boto3 e json, e il client bedrock, sono già stati importati.
Questo esercizio fa parte del corso
Introduzione ad Amazon Bedrock
Istruzioni dell'esercizio
- Genera una storia concisa usando un
top_pbasso emax_tokensbasso e una storia più creativa usando untop_palto emax_tokensalto, mantenendomax_tokensa un massimo di 200.
Esercizio pratico interattivo
Prova a risolvere questo esercizio completando il codice di esempio.
def generate_story_with_params(bedrock, top_p, max_tokens):
messages = [{"role": "user",
"content": "Write a story about ChefBot writing a bestselling AI-powered cookbook memoir."}]
request_body=json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": max_tokens,
"top_p": top_p, "messages": messages})
response = bedrock.invoke_model(body=request_body, modelId='anthropic.claude-3-5-sonnet-20240620-v1:0')
response_body = json.loads(response.get('body').read().decode())
return response_body["content"][0]["text"]
# Modify the parameters to create the two stories
short_focused = generate_story_with_params(bedrock, ____, ____)
long_diverse = generate_story_with_params(bedrock, ____, ____)
print("More focused: ", short_focused, "More creative: ", long_diverse)