-
Créer un dataset Power BI depuis notre Synapse DataLakeHouse
Notre DataLakeHouse contient physiquement des fichiers de données. Ceux-ci sont organisés, nettoyés, représentent un modèle de donnée défini sur la « dernière » couche et éventuellement de formats différents. Nous pouvons donc lire nos données depuis ces fichiers et travailler dessus pour faire ce que l’on en veut. Un des principaux cas d’usage est de connecter un…
-
Configurer un runtime dans Synapse pour la connexion à une base de donnée On-Prem
Dans cet article, je vais procéder à l’installation d’un runtime d’intégration « simple » pour Synapse, il n’y a pas de scalabilité ni de haute dispo comme il pourrait être nécessaire en production pour des applications critiques.
-
Un Data Lakehouse fonctionnel avec Azure Synapse Analytics
Cet article est le point de départ du projet global qui sera créé le long de plusieurs articles à venir. L’objectif est de créer un datalake autour de la solution intégrée de Microsoft : Synapse Analytiques et d’autres solutions Microsoft / Azures s’imbriquant dans notre besoin.
-
Générer un dataset partitionné via un data flow Azure Synapse Analytics
Afin d’optimiser des les requêtes effectués sur des fichiers parquets depuis un pool serverless, on travail généralement avec des dataset partitionné. Cette article décrit comment générer un dataset partitionné via un data flow Azure Synapse Analystics.
-
Paramétrer les Pipeline Azure Synapse Analytics sans ouvrir Synapse !
Cet article était loin dans les cartons, mais l’article Alternative pipeline parametrization for Azure Synapse Analytics a motivé la priorisation de cet article. Merci @paul_eng pour le partage et la motivation d’écrire celui-ci !