Mettre des fichiers dans le cloud
Maintenant que Sam sait créer des buckets, elle est prête à automatiser une partie fastidieuse de son travail. À l’heure actuelle, elle doit télécharger les fichiers les plus récents depuis le City of San Diego Open Data Portal, les agréger, puis les partager avec sa direction.
Partager une analyse avec d’autres est une tâche courante, mais répétitive, en data science. Automatiser ces étapes permettra à Sam de se concentrer sur des projets plus intéressants, tout en satisfaisant sa direction.
Dans la leçon précédente, Sam a déjà créé le bucket gid-staging.
Elle a déjà téléchargé les fichiers depuis les URL, les a analysés et a écrit les résultats dans final_report.csv.
Elle a également initialisé le client S3 de boto3 et l’a affecté à la variable s3.
Aidez Sam à téléverser final_report.csv dans le bucket gid-staging !
Cet exercice fait partie du cours
Introduction à AWS Boto en Python
Instructions
- Téléversez
'final_report.csv'dans le bucket'gid-staging'avec la clé'2019/final_report_01_01.csv'. - Récupérez les métadonnées de l’objet et stockez-les dans
response. - Affichez la taille de l’objet en octets.
Exercice interactif pratique
Essayez cet exercice en complétant cet exemple de code.
# Upload final_report.csv to gid-staging
s3.____(Bucket='____',
# Set filename and key
____='____',
____='____)
# Get object metadata and print it
response = s3.____(Bucket='gid-staging',
Key='2019/final_report_01_01.csv')
# Print the size of the uploaded object
print(response['____'])