Controlando a saída com top_p e max_tokens
A equipe de marketing agora quer duas versões de uma história sobre o ChefBot, o principal robô de cozinha: um briefing conciso para investidores e um post de blog mais criativo sobre os bastidores.
Neste exercício, as bibliotecas boto3 e json, e o cliente bedrock, já foram pré-importados.
Este exercício faz parte do curso
Introdução ao Amazon Bedrock
Instruções do exercício
- Gere uma história concisa usando
top_pbaixo emax_tokensbaixo e uma história mais criativa usandotop_palto emax_tokensalto, mantendomax_tokenscom no máximo 200.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
def generate_story_with_params(bedrock, top_p, max_tokens):
messages = [{"role": "user",
"content": "Write a story about ChefBot writing a bestselling AI-powered cookbook memoir."}]
request_body=json.dumps({"anthropic_version": "bedrock-2023-05-31", "max_tokens": max_tokens,
"top_p": top_p, "messages": messages})
response = bedrock.invoke_model(body=request_body, modelId='anthropic.claude-3-5-sonnet-20240620-v1:0')
response_body = json.loads(response.get('body').read().decode())
return response_body["content"][0]["text"]
# Modify the parameters to create the two stories
short_focused = generate_story_with_params(bedrock, ____, ____)
long_diverse = generate_story_with_params(bedrock, ____, ____)
print("More focused: ", short_focused, "More creative: ", long_diverse)