ComeçarComece de graça

Fazer upload dos relatórios agregados de fevereiro

No último exercício, Sam baixou os arquivos do mês do bucket de dados brutos.

Depois, ela combinou tudo em um único DataFrame que apresenta todas as solicitações do mês e seus tipos.

Ela armazenou esse DataFrame na variável all_reqs e usou a funcionalidade groupby do pandas para contar solicitações por nome de serviço, gerando um novo DataFrame agg_df:

service_name count
0 72 Hour Violation 2910
1 Chain Link Fence Repair 90
2 Collections Truck Spill 30
3 Container Left Out 120
4 Dead Animal 360

Ela já criou o cliente S3 do boto3 na variável s3.

Ajude-a a publicar as estatísticas de solicitações deste mês.

Grave agg_df em arquivos CSV e HTML e faça upload para o S3 como arquivos públicos.

Este exercício faz parte do curso

Introdução ao AWS Boto em Python

Ver curso

Instruções do exercício

  • Grave as versões CSV e HTML de agg_df e nomeie-as 'feb_final_report.csv' e 'feb_final_report.html', respectivamente.
  • Faça upload de ambas as versões de agg_df para o bucket gid-reports e defina-as como leitura pública.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Write agg_df to a CSV and HTML file with no border
agg_df.____('./____')
agg_df.____('./____', border=0)

# Upload the generated CSV to the gid-reports bucket
s3.____(Filename='./feb_final_report.csv', 
	Key='2019/feb/final_report.html', Bucket='gid-reports',
    ____ = {'ACL': '____'})

# Upload the generated HTML to the gid-reports bucket
s3.upload_file(Filename='./feb_final_report.html', 
	Key='2019/feb/final_report.html', Bucket='gid-reports',
    ____ = {'ContentType': '____', 
                 '____': '____'})
Editar e executar o código