ComenzarEmpieza gratis

Streaming retail data into Delta Lake

New order files land daily in your team's volume at Global Retail Analytics.

Instead of reloading everything each morning, you'll build a streaming pipeline that picks up new CSV files automatically, writes them to Delta Lake, and recovers gracefully from restarts using checkpoints.

Este ejercicio forma parte del curso

Data Transformation with Spark SQL in Databricks

Ver curso

Ejercicio interactivo práctico

Pon en práctica la teoría con uno de nuestros ejercicios interactivos

Empezar ejercicio