Fazer upload dos relatórios agregados de fevereiro
No último exercício, Sam baixou os arquivos do mês do bucket de dados brutos.
Depois, ela combinou tudo em um único DataFrame que apresenta todas as solicitações do mês e seus tipos.
Ela armazenou esse DataFrame na variável all_reqs e usou a funcionalidade groupby do pandas para contar solicitações por nome de serviço, gerando um novo DataFrame agg_df:
| service_name | count | |
|---|---|---|
| 0 | 72 Hour Violation | 2910 |
| 1 | Chain Link Fence Repair | 90 |
| 2 | Collections Truck Spill | 30 |
| 3 | Container Left Out | 120 |
| 4 | Dead Animal | 360 |
Ela já criou o cliente S3 do boto3 na variável s3.
Ajude-a a publicar as estatísticas de solicitações deste mês.
Grave agg_df em arquivos CSV e HTML e faça upload para o S3 como arquivos públicos.
Este exercício faz parte do curso
Introdução ao AWS Boto em Python
Instruções do exercício
- Grave as versões CSV e HTML de
agg_dfe nomeie-as'feb_final_report.csv'e'feb_final_report.html', respectivamente. - Faça upload de ambas as versões de
agg_dfpara o bucketgid-reportse defina-as como leitura pública.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Write agg_df to a CSV and HTML file with no border
agg_df.____('./____')
agg_df.____('./____', border=0)
# Upload the generated CSV to the gid-reports bucket
s3.____(Filename='./feb_final_report.csv',
Key='2019/feb/final_report.html', Bucket='gid-reports',
____ = {'ACL': '____'})
# Upload the generated HTML to the gid-reports bucket
s3.upload_file(Filename='./feb_final_report.html',
Key='2019/feb/final_report.html', Bucket='gid-reports',
____ = {'ContentType': '____',
'____': '____'})