Components in a Spark Cluster
Spark is a distributed computing platform. It achieves efficiency by distributing data and computation across a cluster of computers.
A Spark cluster consists of a number of hardware and software components which work together.
Which of these is not part of a Spark cluster?
Deze oefening maakt deel uit van de cursus
Machine Learning with PySpark
Praktische interactieve oefening
Zet theorie om in actie met een van onze interactieve oefeningen.
Begin met trainen