L’IA élargit le périmètre de la cybersécurité. Les organisations doivent désormais sécuriser non seulement leurs infrastructures traditionnelles, mais aussi des modèles, des agents et des environnements orchestrés par l’IA.
Une thématique développée par Carole Sénéchal, Global Strategy Lead – SMB Go-To-Market Cybersecurity chez Microsoft, lors de d’une intervention sur Cyber Show Paris 2026.
Une interview de Guilhem Thérond, pour L’observatoire de la tech.
Comment l’IA impacte-t-elle les dispositifs de sécurité existants ?
Carole Sénéchal : Jusqu’à présent, la cybersécurité était structurée autour de périmètres identifiés : endpoint, identité, cloud, réseau. Ces couches restent fondamentales. Mais avec l’IA, de nouvelles surfaces apparaissent. Les organisations doivent sécuriser les modèles d’IA eux-mêmes, les comptes qui y accèdent, les plugins et extensions qui les connectent à d’autres systèmes, ainsi que toute l’orchestration entre ces composants.
Cela signifie que le périmètre d’exposition devient plus diffus. Un modèle mal paramétré, un plugin tiers insuffisamment contrôlé ou une orchestration mal supervisée peuvent créer un point d’entrée. Nous ne parlons plus seulement d’infrastructure, mais d’écosystème IA.
Cette évolution rend-elle la détection plus complexe ?
Oui, car le nombre d’alertes et d’événements à analyser croît de manière exponentielle. Et les équipes IT doivent être capables de les corréler en temps réel. L’automatisation devient indispensable. Chez Microsoft, nous analysons environ 900 millions de signaux par seconde grâce à l’IA. Ce volume illustre l’ampleur du défi.
Face à la multiplication des outils, quelle approche recommandez-vous ?
Pendant des années, les organisations ont accumulé des solutions spécialisées. Chaque outil répondait à un besoin précis. Le problème est que ces plateformes fonctionnent souvent de manière isolée. L’IA permet désormais de connecter ces environnements et de consolider la lecture des incidents.
La consolidation des environnements devient un préalable. Une approche intégrée permet d’automatiser plus efficacement les réponses et de réduire la complexité opérationnelle. Cela améliore aussi la visibilité globale pour les équipes SOC.
Comment l’approche Zero Trust s’inscrit-elle dans cette évolution ?
L’identité constitue la colonne vertébrale du modèle Zero Trust. Cela impose d’authentifier plus rapidement, d’appliquer des politiques d’accès adaptées et d’ajuster ces politiques en continu.
« L’identité est la colonne vertébrale du Zero Trust. »
Les agents IA peuvent nous assister dans cette démarche. Ils permettent d’automatiser la mise en place des politiques d’accès et de surveiller l’utilisation des données. Cela contribue également aux exigences de conformité, notamment sur le RGPD, où la traçabilité et le contrôle des accès sont essentiels.
En quoi l’IA modifie-t-elle l’équilibre entre protection et attaque ?
Nous ne pouvons plus dissocier l’IA de la cybersécurité. L’IA améliore nos capacités de détection et de réponse, mais elle permet aussi aux attaquants d’optimiser leurs techniques. Les campagnes peuvent être plus sophistiquées et plus rapides.
Cela nous oblige à industrialiser en retour nos mécanismes de défense. Automatiser les tâches répétitives, accélérer la détection et réduire les temps de réponse deviennent des priorités opérationnelles.
Qu’est-ce que cela implique pour les équipes IT ?
Leur périmètre de responsabilité se retrouve de fait élargi. Les équipes sécurité ne peuvent plus se limiter à protéger l’infrastructure. Elles doivent comprendre comment les métiers utilisent les outils d’IA, quels modèles sont intégrés aux processus internes et quels plugins ou extensions sont activés.
«L’IT doit intervenir en amont des projets IA. »
Concrètement, cela suppose de travailler beaucoup plus étroitement avec les directions métiers. Si un service déploie un agent IA pour automatiser un processus, l’IT doit être impliquée en amont pour vérifier les flux de données, les accès associés et les dépendances techniques.
Cela implique aussi d’intégrer l’IA dans les politiques internes : définir ce qui est autorisé, encadrer les usages, formaliser une charte claire pour éviter les dérives de type Shadow AI. Les équipes IT doivent donc intervenir non seulement sur le plan technique, mais aussi sur le plan de la gouvernance.
Justement, comment encadrer les usages d’IA non autorisés dans l’entreprise ?
C’est une préoccupation forte chez les dirigeants. Beaucoup veulent accélérer sur l’IA, mais sans “faire entrer le loup dans la bergerie”. Ils craignent que des données sensibles soient exposées via des outils externes non maîtrisés.
La première réponse est d’établir une charte claire sur l’usage de l’IA. Il faut définir ce qui est autorisé et ce qui ne l’est pas. Ensuite, la formation est essentielle. Les collaborateurs doivent comprendre les risques liés au partage de données dans certains environnements.
Enfin, il faut assurer la conformité. Les accès aux données doivent être surveillés et les politiques d’accès appliquées de manière cohérente. L’objectif n’est pas de bloquer l’innovation, mais d’éviter que l’adoption rapide de l’IA ne crée de nouvelles vulnérabilités internes.
À lire également : [Tribune publique] Cybersécurité hospitalière : un scandale silencieux ?




