Spark, Hadoop et Hive
Vous avez rencontré un certain nombre de projets open source dans la vidéo précédente. Il y a Hadoop, Hive et PySpark. Il est facile de confondre ces projets.
Ils ont quelques points communs : ils sont tous maintenus par la fondation Apache Software et ils ont tous été utilisés pour le traitement parallèle massif. Pouvez-vous repérer les différences ?
Cet exercice fait partie du cours
Introduction à l'ingénierie des données
Exercice interactif pratique
Passez de la théorie à la pratique avec l’un de nos exercices interactifs
