Les infrastructures IT ont longtemps été conçues pour privilégier la rapidité de déploiement des technologies (time to market). Mais face aux dépendances que ces choix peuvent créer, certaines organisations commencent à réévaluer leurs architectures en intégrant une nouvelle dimension : le time-in-the-market, c’est-à-dire la capacité d’une technologie à rester maîtrisable sur le long terme.
Entretien avec Arnaud Gautier, Directeur de la stratégie et de l’offre Cloud & Infrastructures du Groupe inherent, opérateur BtoB (Adista, Unyc…)
« Pendant longtemps, les organisations pensaient surtout au time to market. Aujourd’hui, elles doivent aussi penser au time-in-the-market », explique immediatement Arnaud Gautier. Pendant des années, les organisations ont privilégié des briques technologiques éprouvées, souvent issues de grands éditeurs internationaux, afin d’intégrer rapidement de nouveaux services. Cette logique d’efficacité immédiate a aussi créé des dépendances technologiques que certaines entreprises et collectivités redécouvrent aujourd’hui.
De la rapidité de déploiement à la durabilité des choix technologiques
Le débat sur la souveraineté technologique est désormais installé dans l’IT européen. Il ramène une question plus concrète : celle de la dépendance aux technologies. « Quand nous regardons les infrastructures IT en Europe, près de 80 % de la dépense est encore orientée vers des acteurs extra-européens », souligne Arnaud Gautier. Cette situation n’est pas nouvelle, mais elle devient plus visible à mesure que certaines décisions commerciales ou techniques prises par ces acteurs ont des conséquences directes sur les stratégies IT des organisations.
Certaines annonces ont servi d’électrochoc. « Certaines décisions d’éditeurs extra-européens ont contribué à cette prise de conscience. Il y a eu une forme de réveil un peu douloureux pour bon nombre d’acteurs », observe-t-il. L’expression traduit une perception qui dépasse le seul débat politique sur la souveraineté numérique. Pour de nombreuses entreprises, la question devient très concrète : jusqu’où peut aller la dépendance à certaines technologies lorsqu’elles structurent une grande partie du système d’information.
Pour Arnaud Gautier, la demande ne se limite plus à la localisation des données ou des infrastructures. « Nous avons désormais des acteurs, notamment dans le secteur public ou la santé, qui nous disent clairement : nous voulons du souverain, mais aussi du souverain technologique. » La nuance est importante. Elle signifie que les organisations ne s’intéressent plus seulement au lieu où les données sont hébergées, mais aussi aux technologies qui composent les plateformes utilisées.
Du cloud souverain à la souveraineté technologique
La notion de cloud de confiance ne suffit plus à répondre à toutes les interrogations. « Nous avons nous-même décidé d’accentuer notre virage vers des offres cloud et IT souveraines, qui vont au-delà de la seule question du cloud de confiance », explique Arnaud Gautier. La réflexion porte désormais sur l’ensemble de la chaîne technologique, des infrastructures aux logiciels utilisés pour les opérer.
« Le souverain ne se limite plus à l’hébergement des données »
Cette évolution oblige aussi les fournisseurs de services à revoir la manière dont ils conçoivent leurs offres. Pendant longtemps, la priorité était donnée à la rapidité d’intégration. Les briques technologiques proposées par les grands éditeurs permettaient de déployer rapidement des services robustes, mais elles peuvent aussi créer des dépendances lorsque les organisations cherchent à conserver davantage de maîtrise sur leurs architectures.
C’est dans ce contexte qu’Arnaud Gautier insiste sur la distinction entre time-to-market et time-in-the-market. La première notion renvoie à la capacité de lancer rapidement une nouvelle offre ou un nouveau service. La seconde invite à réfléchir à la durée pendant laquelle une technologie restera pertinente, supportée et maîtrisable dans l’environnement informatique. Autrement dit, il ne s’agit plus seulement de savoir à quelle vitesse une solution peut être déployée, mais aussi dans quelles conditions elle pourra évoluer sur le long terme.
OpenStack, Proxmox, XCP-ng : des briques réévaluées
Cette réflexion conduit naturellement à reconsidérer certaines briques technologiques. « Nous privilégions des technologies open source, européennes, voire françaises lorsque c’est possible. Nous regardons notamment des briques comme OpenStack, Proxmox ou XCP-ng », précise Arnaud Gautier. Ces technologies ne sont pas nouvelles dans le paysage informatique, mais elles reviennent au centre des discussions à mesure que les organisations cherchent à diversifier leurs dépendances technologiques.
OpenStack est utilisé depuis plusieurs années comme plateforme d’infrastructure cloud open source, capable d’orchestrer des environnements de calcul, de stockage et de réseau. Proxmox s’est imposé comme une solution de virtualisation et de gestion d’infrastructures largement utilisée dans certains environnements d’entreprise. Quant à XCP-ng, il s’agit d’un hyperviseur open source issu de l’écosystème Xen, souvent envisagé comme une alternative à certaines solutions propriétaires de virtualisation.
Le choix de ces technologies ne signifie pas nécessairement un abandon des solutions proposées par les grands éditeurs internationaux. Arnaud Gautier le reconnaît implicitement lorsqu’il explique que certaines briques restent difficiles à remplacer dans des contextes spécifiques. Mais la stratégie consiste désormais à réexaminer les architectures existantes et à identifier les domaines dans lesquels une diversification technologique est possible.




