Passer au contenu

IA générative et cybersécurité, un classique revisité

Christophe Menant et Luca Bordonaro
19 juin 2024

Chaque fois qu’une innovation de rupture s’invite dans les systèmes d’information, se pose aussitôt la question de ses conséquences en matière de cybersécurité.

L’intelligence artificielle générative (Gen AI), qui connaît depuis 2022 un essor foudroyant, ne fait pas exception : les interrogations la concernant rappellent très exactement celles qui accompagnaient le cloud à ses débuts il y a une quinzaine d’années.
Quels services mettre en œuvre ? Pour quels usages ? Que faut-il externaliser ou conserver en interne ? Quelles sont les nouvelles menaces, les règlementations, les responsabilités ? Et comment mettre sous contrôle des usages spontanés, ou shadow AI, qui foisonnent ? En somme, la Gen AI pose à nouveau le dilemme traditionnel de l’innovation : d’un côté, adopter une attitude restrictive et prudente vis-à-vis de potentielles nouvelles menaces, au risque de passer à côté d’opportunités métiers significatives ; et de l’autre, accorder une trop grande liberté, au risque d’exposer l’organisation à de nouveaux risques non maîtrisés, et ainsi engendrer des impacts métiers significatifs.

Protéger l’information à tout prix

C’est là tout l’enjeu de la sécurisation de l’IA générative. Et c’est sous l’angle du risque qu’il convient de l’aborder, avec, pour les principaux :

  • le risque de voir des informations sensibles exposées, qu’elles soient des données confidentielles d’entreprise et/ou réglementées ;
  • le risque de voir des processus, décisionnels ou opérationnels perturbés par des informations inexactes.

Pour l’essentiel, la problématique est donc d’assurer une protection renforcée des données en entrée et en sortie des systèmes d’IA. Avec son potentiel hors norme et l’effervescence qui l’entoure, la Gen AI est en fin de compte une nouvelle application presque comme les autres… Il faut en effet lui appliquer les politiques et les dispositifs mis en œuvre par ailleurs dans l’entreprise, tout en les revisitant, et ce sur trois plans essentiels :

  • la définition d’un cadre et d’une gouvernance de gestion des risques ;
  • la sécurisation des données mais aussi des modèles ;
  • la protection de l’infrastructure et des environnements Gen AI eux-mêmes.

Définir un cadre et une gouvernance de gestion des risques

Face à l’engouement actuel pour l’IA générative, la priorité est d’encadrer les pratiques au sein des organisations. Aujourd’hui, les postures sont en effet encore très disparates : de l’interdiction pure et simple au laisser faire complet, en passant par la mise en place d’environnements privés pour circonscrire les usages.

Poser un cadre est donc essentiel pour clarifier ce qui est autorisé ou non, et éviter des dérives dont l’impact peut être lourd et immédiat.  Pour cela, les organisations doivent se doter de doctrines, de règles et d’instances de gouvernance. Ce cadre doit par ailleurs s’accompagner de campagnes de sensibilisation et de formation des collaborateurs, qui, pour utiliser correctement la Gen AI, doivent en comprendre le fonctionnement, ses problématiques inhérentes (hallucinations par exemple) et les risques qui l’accompagnent.

Sécuriser les données et les modèles 

Le deuxième grand sujet concerne les données elles-mêmes, et les modèles qui les exploitent. Les applications de Gen AI s’appuient en effet sur des modèles qui ingèrent, assimilent et s’entraînent sur des ensembles de données massifs, pour générer à leur tour de nouveaux contenus.  

Par discernement ou par ignorance, un utilisateur humain peut s’abstenir d’inclure certaines informations aux contenus qu’il produit, mais la Gen AI n’a pas ces filtres : la machine cherche dans tout ce à quoi elle a accès, puis restitue ces connaissances en toute candeur. Il est donc impératif de lui fixer des limites.

Pour cela, on va inventorier les données, les localiser, les classifier, et mettre en place des contrôles de qualité, de représentativité, de validation, d’intégrité ou encore d’accès. On va également créer des référentiels de données autorisées et validées. Cette pratique permet de contrôler les données d’entrée, c’est-à-dire celles qui peuvent servir à entraîner, spécialiser ou encore affiner les modèles de Gen AI.

Pour les données dites de sortie, outre l’indispensable contrôle humain pour valider l’exactitude de la réponse, on pourra mettre en place les outils usuels de restriction d’accès aux résultats ou de protection contre les fuites de données. Mais avec la Gen AI, il faudra aller plus loin :

  • limiter l’utilisation de sous-ensembles de données en fonction du besoin d’en connaître ;
  • mettre en place des vérifications des données générées par des modèles de Gen AI pour détecter toute réponse erronée ou hallucination
  • mettre en place les vérifications nécessaires pour détecter toute dérive dans le temps d’un modèle ainsi que tout biais engendré par des modèles entraînés avec des données non représentatives ou à la fiabilité douteuse

Protéger l’infrastructure et les environnements Gen AI

Sécuriser les environnements de Gen AI est indispensable pour éviter, par exemple, que les modèles puissent être rendus inopérants ou indisponibles. Cela passera par l’application de mesures :

  • qu’il suffira d’étendre, comme le filtrage des accès ;
  • qu’il faudra adapter, comme des règles de monitoring de sécurité spécifiques ;
  • qu’il faudra créer entièrement, comme des contrôles pour détecter des attaques spécifiques (prompt injection par exemple).

La nature des solutions Gen AI devra également être considérée :

  • pour les solutions en mode Software as a Service (SaaS), il faudra délimiter par contrat les engagements et les responsabilités du fournisseur en matière de sécurité et conformité ;
  • pour les solutions développées en interne, il faudra faire preuve de la même hygiène de sécurité et de conformité au niveau des infrastructures (stockage, réseau, système) que pour n’importe quelle application manipulant des données confidentielles et/ou réglementées.

À retenir

Dans ce domaine qui évolue extrêmement rapidement, les prochains mois verront sans doute se matérialiser de nouvelles menaces et émerger de nouvelles solutions de sécurité spécialisées. Nous verrons également évoluer la maturité des fonctions sécurité natives dans les solutions Gen AI ou encore leurs capacités à s’intégrer à des solutions externes de sécurité.

Cependant, les organisations ne doivent en aucun cas attendre pour s’emparer de la question de la sécurité de la Gen AI :

  • elles ont dès à présent les moyens techniques et organisationnels pour la sécuriser ;
  • elles ont pour les guider les directives de l’AI Act en Europe ou ses équivalents dans le reste du monde, ainsi que les recommandations de l’ANSSI.

Auteurs

Christophe Menant

Directeur de l'offre Cybersécurité
Directeur, responsable du portefeuille d’offre et de l’innovation cybersécurité de CAPGEMINI France. Plus de 30 ans d’expérience en informatique et plus de 25 ans dans le domaine de la cybersécurité. Christophe a une vaste expérience dans des environnements internationaux et mondiaux. Christophe a aidé ces clients à élaborer et à exécuter leurs stratégies et leurs programmes de transformation sécurité, a géré des crises majeures liées à des cyber-attaques de types ransomware ou espionnage industriel, a définit des méthodes, des architectures et des processus de références ainsi que des offres de sécurité. Ceci a eu pour but de mieux adresser les demandes du marché de la sécurité ou pour contribuer à la sécurité interne des sociétés pour lesquelles il a travaillé. Christophe a travaillé 15 ans chez IBM puis 8 ans chez HPE/DXC avant de rejoindre CAPGEMINI.

Luca Bordonaro

Consultant Cybersécurité, Capgemini Invent
Luca est consultant chez Capgemini Invent au sein de l’offre Digital Trust & Security et travaille plus particulièrement sur des sujets stratégiques mêlant cybersécurité et nouvelles technologies.

    Newsletter Cybersécurité

    Abonnez-vous à notre newsletter et recevez nos dernières actualités dédiées à la cybersécurité