CommencerCommencer gratuitement

Spark, Hadoop et Hive

Vous avez rencontré un certain nombre de projets open source dans la vidéo précédente. Il y a Hadoop, Hive et PySpark. Il est facile de confondre ces projets.

Ils ont quelques points communs : ils sont tous maintenus par la fondation Apache Software et ils ont tous été utilisés pour le traitement parallèle massif. Pouvez-vous repérer les différences ?

Cet exercice fait partie du cours

Introduction à l'ingénierie des données

Afficher le cours

Exercice interactif pratique

Passez de la théorie à la pratique avec l’un de nos exercices interactifs

Commencer l’exercice