
L'intelligence artificielle redessine le périmètre de la cybersécurité. Face à des systèmes capables d'apprendre, de raisonner et d'agir de façon autonome, les approches traditionnelles ne suffisent plus. C'est dans ce contexte qu'émerge la norme ISO/IEC 27090— actuellement au stade FDIS (Final Draft International Standard) depuis juillet 2025, soit l'étape précédant sa publication officielle. Un cadre de référence conçu spécifiquement pour traiter les menaces et les défaillances propres aux systèmes d'IA.
Que vous soyez RSSI, fournisseur de solutions IA ou responsable conformité, cet article vous donne les clés pour comprendre ses apports et anticiper son intégration dans votre stratégie de sécurité.
La cybersécurité repose historiquement sur trois piliers fondamentaux : confidentialité, intégrité et disponibilité (le triptyque CID). Ces principes ont structuré des décennies de bonnes pratiques, de la gestion des accès jusqu'aux plans de continuité d'activité.
Mais l'IA change profondément la donne. Les organisations déploient massivement des assistants conversationnels (ChatGPT, Copilot), des agents autonomes, des architectures RAG (Retrieval-Augmented Generation), des systèmes de recommandation et des pipelines de machine learning. Ces systèmes ne sont plus de simples logiciels : ils apprennent à partir de données, interagissent avec les utilisateurs et peuvent agir de façon autonome.
Cette évolution introduit de nouvelles surfaces d'attaque que la cybersécurité traditionnelle ne couvre pas :
Sécuriser l'IA, c'est donc appliquer les principes de la cybersécurité à une nouvelle génération de systèmes numériques — avec des méthodes et des outils adaptés à leurs spécificités.
La norme ISO/IEC 27090 (Cybersécurité — Intelligence artificielle — Lignes directrices pour traiter les menaces de sécurité et les défaillances dans les systèmes d'intelligence artificielle) est au stade FDIS depuis février 2026— étape très avancée qui précède immédiatement la publication officielle. Elle s'inscrit dans la famille des normes ISO 27000 et vient compléter un écosystème normatif déjà structuré :
La particularité de l'ISO 27090 est nette : elle s'intéresse avant tout aux mécanismes techniques de sécurité et aux menaces propres aux modèles d'IA. Elle vient enrichir ISO 42001 — qui traite de la gouvernance de l'IA et couvre, notamment via son Annexe A (A.6.2 sur les données pour les systèmes IA, A.6.5 sur la documentation), des aspects de traçabilité des données et du cycle de vie — en apportant une profondeur technique et sécurité supplémentaire, plus opérationnelle sur les processus comme l'entraînement des modèles, la validation continue et la résistance aux attaques.
💡 À noter pour les équipes conformité : ISO 42005, consacré à l'évaluation d'impact des systèmes d'IA, s'articule directement avec la clause 6.1.4 d'ISO 42001 et les obligations de l'AI Act (article 27 sur l'analyse d'impact sur les droits fondamentaux). Son absence dans une démarche de conformité constitue un angle mort notable.
Pour les organisations certifiées ISO 27001, ISO 27090 permet d'étendre l'analyse des risques aux composants spécifiques de l'IA : données d'entraînement, modèles, pipelines ML. Pour les organisations avec des filiales ou des clients hors UE, le NIST AI RMF (AI Risk Management Framework) constitue un référentiel complémentaire incontournable, très répandu en Amérique du Nord et de plus en plus utilisé en Europe dans une logique d'interopérabilité des référentiels.
Le chapitre 5 pose les fondations : comment transposer les principes classiques de la sécurité de l'information (CID) aux systèmes d'IA, tout au long de leur cycle de vie.
Les pratiques clés recommandées incluent
💡 Les fonctionnements autonomes des agents IA remettent en question les outils Zero Trust traditionnels, orientés identité. Une réflexion émerge vers des modèles basés sur le contexte et les intentions (intent-based security).
Ce chapitre référence les principales attaques ciblant les modèles d'IA, leurs impacts sur la sécurité et les méthodes de détection associées. Pour chaque type d'attaque, la norme décrit la nature de l'attaque, ses impacts potentiels et les mesures de mitigation associées :

Cette cartographie permet aux équipes sécurité d'intégrer les risques IA dans leurs analyses de cybersécurité existantes, en les reliant directement aux propriétés CID.
Le chapitre 7 décrit les contrôles de sécurité permettant de réduire l'impact des attaques. Il insiste sur un point fondamental : la sécurité d'un système d'IA doit être pensée comme un ensemble cohérent, et non comme une série de protections indépendantes. Certaines mesures peuvent interagir entre elles ou dégrader les performances du modèle si elles ne sont pas évaluées globalement.
Les 10 grandes catégories de mesures couvertes :
ISO 27090 distingue deux rôles clés, une distinction cohérente avec la logique de l'AI Act européen :
Le fournisseur développe ou met sur le marché un système d'IA. Il se concentre sur la sécurisation du modèle et de son cycle de vie : robustesse, résistance aux attaques, intégrité des données d'entraînement.
Le déployeur intègre ce système dans un contexte métier. Il sécurise l'environnement d'intégration : accès aux données, exposition via des APIs, usages métier et supervision. Il doit maîtriser les enjeux de sécurité propres aux modèles pour valider les systèmes qu'il intègre et en assumer la responsabilité opérationnelle.
Cette double lecture est essentielle pour toute organisation souhaitant déployer des systèmes d'IA de manière fiable, conforme à l'AI Act et auditée.
Malgré son périmètre ambitieux, le projet de norme laisse plusieurs zones à approfondir :
En France, l'ANSSI a publié des recommandations de sécurité dédiées aux systèmes d'IA générative, apportant un cadre opérationnel complémentaire aux normes internationales. Le Hub France IA contribue également à une vision globale de la sécurisation de l'IA à travers ses livres blancs et travaux de synthèse.
La sécurité des systèmes d'IA dépasse désormais le traditionnel triptyque CID. Elle s'élargit à des dimensions comme la transparence des décisions, la responsabilité algorithmique, l'explicabilité (XAI — Explainable AI) et l'impact concret sur les individus.
Pour les organisations, anticiper l'adoption d'ISO 27090, en complémentarité avec ISO 42001 pour la gouvernance, ISO 42005 pour l'évaluation d'impact, ISO 27001 pour la sécurité de l'information, et le NIST AI RMF pour les contextes internationaux; permet de structurer une démarche de sécurité IA robuste, documentée et auditée. C'est aussi un signal fort envoyé aux clients, partenaires et régulateurs : la sécurité de vos systèmes d'IA est traitée sérieusement, intégrée dès la conception et non ajoutée après coup.
Dans un paysage où les risques évoluent aussi vite que les innovations architecturales (agents, RAG, LLM multimodaux), cette approche normative devient un prérequis incontournable pour tout déploiement IA responsable.
Vous souhaitez approfondir ce sujet ou évaluer votre niveau de maturité face aux exigences d'ISO 27090 ? Retrouvez nos webinaires dédiés à la sécurité IA en entreprise.