Onderdelen in een Spark-cluster
Spark is een gedistribueerd computingplatform. Het behaalt efficiëntie door data en berekeningen te verdelen over een cluster van computers.
Een Spark-cluster bestaat uit een aantal hardware- en softwareonderdelen die samenwerken.
Welke van deze is geen onderdeel van een Spark-cluster?
Deze oefening maakt deel uit van de cursus
Machine Learning met PySpark
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen