Componenti in un cluster Spark
Spark è una piattaforma di calcolo distribuito. È efficiente perché distribuisce dati e computazione su un cluster di computer.
Un cluster Spark è composto da diversi componenti hardware e software che lavorano insieme.
Quale di questi NON fa parte di un cluster Spark?
Questo esercizio fa parte del corso
Machine Learning con PySpark
Esercizio pratico interattivo
Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi
Inizia esercizio