or
Cet exercice fait partie du cours
Dans le premier chapitre, vous découvrirez les unions et les ajouts, en abordant les bases de la manipulation de données avec Alteryx. À la fin du chapitre, vous saurez combiner des sources de données hétérogènes, fusionner des jeux de données avec précision et maîtriser les unions et les ajouts pour obtenir une compréhension globale de vos données.
Dans le deuxième chapitre, vous plongerez dans l’univers des jointures et découvrirez les subtilités de la combinaison de données provenant de plusieurs tables avec Alteryx. À la fin du chapitre, vous saurez naviguer entre différents types de jointures, fusionner les données avec précision et maîtriser les jointures inner, left, right et full outer pour mieux comprendre les relations entre vos données.
Exercice en cours
Dans le troisième chapitre, vous explorerez le parsing des chaînes de caractères et des dates/heures dans Alteryx, en démystifiant la transformation de textes et de données temporelles. À la fin du chapitre, vous saurez manipuler les chaînes, extraire des informations utiles et convertir des formats de date/heure avec précision. La maîtrise de ces techniques vous permettra de nettoyer et de préparer vos données pour des analyses plus fiables et des interprétations plus pertinentes.
Dans le quatrième chapitre, vous aborderez l’aspect crucial de l’optimisation des performances dans Alteryx. Ce chapitre est consacré à l’identification et au traitement des différents goulets d’étranglement susceptibles de freiner l’efficacité d’un flux de travail, tels que le volume de données, les limites propres aux outils, la conception du flux et la gestion des ressources. Vous apprendrez des stratégies pour améliorer les performances en utilisant le profilage des performances, en désactivant les sorties inutiles et en mettant en cache les flux de travail. À la fin de ce chapitre, vous aurez les connaissances et les compétences nécessaires pour optimiser vos workflows Alteryx afin qu’ils s’exécutent de manière fluide et efficace, même avec de grands volumes de données et des opérations complexes.