IniziaInizia gratis

Componenti in un cluster Spark

Spark è una piattaforma di calcolo distribuito. È efficiente perché distribuisce dati e computazione su un cluster di computer.

Un cluster Spark è composto da diversi componenti hardware e software che lavorano insieme.

Quale di questi NON fa parte di un cluster Spark?

Questo esercizio fa parte del corso

Machine Learning con PySpark

Visualizza il corso

Esercizio pratico interattivo

Passa dalla teoria alla pratica con uno dei nostri esercizi interattivi

Inizia esercizio