Pour industrialiser ses usages analytics et data science, Saint-Maclou devait d’abord résoudre un problème récurrent : des données dispersées, des flux d’alimentation trop manuels et des délais incompatibles avec les besoins métiers. L’enseigne centralise désormais 100 % de ses données dans Snowflake, avec une ingestion quasi temps réel.
Saint-Maclou, enseigne française de revêtements de sols basée à Lezennes, s’appuie sur un réseau de 132 magasins et un entrepôt logistique, pour servir une clientèle de particuliers comme de professionnels. L’entreprise compte 1 400 collaborateurs et s’engage dans une refonte progressive de sa plateforme data afin de mieux exploiter les données issues des ventes, de la finance, du marketing, de la logistique ou encore de la gestion des stocks.
L’objectif affiché est d’accélérer la mise à disposition de la donnée, dans un contexte où l’existant repose sur un décisionnel “legacy”, alimenté par des flux construits et maintenus manuellement. À chaque nouveau projet, les équipes doivent identifier les bases sources, les tables, les colonnes pertinentes, puis développer un flux dédié, ce qui alourdit la charge de développement et la maintenance dans le temps.
Des données réparties sur plusieurs applications métiers
Avant cette modernisation, la collecte des données s’accompagne d’une charge de maintenance importante, notamment lors des évolutions des flux. Le texte évoque également des coûts de licences, ainsi qu’une mobilisation forte des data engineers sur des tâches d’ingestion plutôt que sur la transformation et l’analyse.
Cette organisation a un impact direct sur la dynamique des projets, avec des répercussions sur plusieurs fonctions : finance, supply chain, ressources humaines, marketing, ventes ou logistique. Dans ce cadre, les cas d’usage analytiques avancés et les projets liés à l’intelligence artificielle sont décrits comme plus difficiles à faire émerger, faute d’un socle data suffisamment réactif.
« Charge de développement, charge de maintenance, charge d’astreinte, coût de licence pour l’outil… Notre façon de travailler générait auparavant d’importants coûts », détaille Salmane Khamlichi, Responsable data chez Saint-Maclou. « En outre, afin d’accélérer la mise à disposition de la donnée et de générer rapidement de la valeur, nous avons fait le choix de basculer vers une architecture data moderne sur le cloud, avec Snowflake comme base de données centrale ».
Saint-Maclou connecte près de 15 sources on-premise et cloud
Une fois Snowflake retenu comme base de données centrale, l’enjeu devient la synchronisation des données à grande échelle, avec des sources hétérogènes, on-premise et cloud. Saint-Maclou opte alors pour une démarche ELT (extract load transform), où les données sont d’abord chargées dans Snowflake, puis transformées.
Pour l’alimentation, près de 15 sources sont connectées : grandes bases SQL Server, ERP Microsoft AX, outils logistiques, systèmes de vente et de gestion des stocks, ainsi que plusieurs sources marketing. Le communiqué mentionne également le futur CRM Salesforce de Saint-Maclou parmi les systèmes concernés.
Cette automatisation vise à limiter la phase de collecte de données, afin de redéployer les équipes sur des étapes plus directement liées au métier, notamment la transformation via DBT Core (outil de transformation SQL dans un workflow de data engineering) et l’exploitation analytique.
De nouveaux KPI pour les magasins et l’entrepôt
Côté opérationnel, Saint-Maclou insiste surtout sur les gains de délai et la baisse de charge de maintenance. La collecte de nouvelles sources, qui pouvait prendre plusieurs jours ou semaines, s’effectue désormais “en quelques heures”, ce qui contribue à maintenir les projets dans un même sprint et à limiter les allers-retours entre équipes.
Côté exploitation, Saint-Maclou indique disposer d’une vision unifiée avec 100 % des données dans Snowflake, là où elles étaient auparavant réparties dans plusieurs applications métiers. Cette centralisation est présentée comme un socle pour des cas d’usage allant de la prévision des ventes à l’analytics avancé, avec une collaboration plus rapprochée entre l’équipe data et les métiers (marketing, ventes, logistique).
« Aujourd’hui, le sujet de la collecte de données n’en est plus un. Grâce à Fivetran, nos équipes sont concentrées sur la transformation et leur métier retrouve sa réelle valeur ajoutée. Pour Saint-Maclou, la dynamique des projets IT a tout à fait pris une autre dimension ».
Salmane Khamlichi, Responsable data chez Saint-Maclou
La “fraîcheur” de la donnée est également citée comme un levier direct pour le pilotage opérationnel : « Fivetran nous a également permis d’avoir la donnée la plus fraîche possible, quasi temps réel, au sein de notre plateforme Data. Ce qui était beaucoup plus compliqué, voire impossible avant. » Selon Saint-Maclou, ce niveau de synchronisation ouvre des cas d’usage de diffusion de KPI au plus près de l’activité quotidienne, dans le réseau de magasins comme à l’entrepôt.
Saint-Maclou met aussi en avant un suivi de la consommation, avec un monitoring des coûts associés aux projets data :« Fivetran, par sa grande intuitivité, nous permet notamment de travailler sur des sujets de prévision des ventes, d’intégrer rapidement de nouvelles sources pour enrichir les modèles et d’expérimenter à moindre coût de nouveaux cas d’usage data science. Nous disposons aujourd’hui d’un outil performant qui nous donne toutes les cartes en main pour envisager l’avenir sereinement », conclut Salmane Khamlichi.




