Les opérations supply chain restent fortement dépendantes de la qualité des données. Pourtant, près d’un quart des entreprises fonctionnent encore avec des environnements fragmentés, limitant l’exploitation de l’IA et des outils d’optimisation logistique.
France Supply Chain, via son LAB Digital et Technologies, publie avec le cabinet BearingPoint la troisième édition de son baromètre des tendances technologiques en supply chain. Réalisée entre juin et octobre 2025 auprès de grandes entreprises, l’étude met en évidence une transformation plus sélective, mais encore marquée par des écarts importants de maturité sur la gestion des données.
23 % des entreprises confrontées à des données fragmentées dans leurs systèmes supply chain
Près d’un quart des organisations déclarent évoluer dans un environnement de données fragmenté, dont elles tirent peu de valeur. Ces données sont réparties entre ERP (progiciel de gestion intégré), outils de gestion d’entrepôt (WMS) et solutions de transport (TMS), sans intégration complète.
« Les organisations ne sont ni dans l’enthousiasme aveugle ni dans le scepticisme. Elles recherchent le bon usage, au bon endroit, pour le bon métier »
Éric Pradoux, Senior Expert Supply Chain chez BearingPoint.
Cette fragmentation limite la consolidation des flux logistiques. Elle complique le pilotage global de la supply chain, notamment pour synchroniser la demande, les stocks et les capacités de transport. Elle freine également les cas d’usage avancés. Le demand sensing, qui consiste à ajuster les prévisions à partir de données en temps réel, repose sur une vision unifiée des données. Sans intégration, ces approches restent difficiles à déployer à grande échelle.
41 % des entreprises cantonnent l’analytics à des usages isolés
41 % des organisations indiquent utiliser des outils d’analyse de données limités à une seule fonction. Les usages restent cloisonnés entre métiers, sans partage transversal des indicateurs. Dans la supply chain, ce fonctionnement en silos réduit la portée des analyses. Les données de demande, de production et de logistique ne sont pas croisées de manière systématique, ce qui limite l’optimisation globale des flux.
Cette situation ralentit également l’adoption de technologies comme le Digital Twin, ou jumeau numérique, qui permet de simuler les flux logistiques. Ces modèles nécessitent une base de données intégrée pour produire des simulations exploitables. Même lorsque des dispositifs de gestion des données sont en place, 20 % des entreprises signalent des problèmes de qualité liés à un manque de gouvernance. L’absence de règles sur la gestion et la mise à jour des données affecte leur fiabilité.
20 % des entreprises pénalisées par un manque de gouvernance des données
Pour les équipes supply chain, cela se traduit par des écarts entre données théoriques et opérations réelles. Les prévisions peuvent être biaisées, les niveaux de stock mal ajustés et les décisions prises sur des informations incomplètes.
Ces limites pèsent directement sur l’usage de l’intelligence artificielle. L’étude souligne que l’IA est principalement utilisée pour optimiser la demande et les flux, mais son efficacité dépend de la qualité des données disponibles.
Méthodologie : Étude réalisée entre juin et octobre 2025 par France Supply Chain (LAB Digital et Technologies) en partenariat avec BearingPoint, auprès d’entreprises issues principalement de l’industrie, de la distribution et de la logistique. Consulter l’étude complète.




