Passer au contenu
Invent-POV-AI Act-Landingpage
IA & Data

AI Act : le temps de l’action

Découvrez notre guide pour démarrer les premières actions de mise en conformité avec l’AI Act, et prendre de l’avance sur la réglementation !

Entré en vigueur en aout 2024, l’AI Act fixe au sein de l’Union européenne le cadre réglementaire à l’usage et la commercialisation de l’intelligence artificielle. Depuis plus d’un an, le texte a connu de nombreuses réécritures – notamment liées à l’introduction d’articles spécifiques sur les Large Language Models. Il est aujourd’hui difficile de décrypter l’ensemble des obligations selon les cas de figure, et de comprendre le calendrier associé de mise en application.

Toutes les organisations, publiques et privées, dès lors qu’elles font usage, en Europe, d’IA créées par des entreprises européennes ou non, sont concernées par cette nouvelle réglementation. Alors que les premières obligations sont pour début 2025 et que les premières sanctions pourraient être prononcées dès mi-2025, il n’y a donc pas un instant à perdre pour lancer ce chantier.

Le chemin vers la mise en conformité peut sembler difficile. Ce guide vous donne les clés pour comprendre et mettre en pratique concrètement le plan d’action de l’AI Act : sa culture de la responsabilité, l’importance de mettre en place une organisation spécifique, l’appréhension de la chaîne de valeur, les premiers pas à franchir, etc. En distinguant les cas de figure, l’AI Act trace un chemin progressif vers des usages de l’IA maîtrisés, sécurisés, responsables et acceptés par les utilisateurs finaux, que ce soit les collaborateurs, les clients ou tout simplement vous en tant que citoyens. Lançons-nous ensemble !

Au sommaire :

  • Comprendre le texte dense et ambitieux de l’AI Act (calendrier, écosystème, sanctions…)
  • Les ressources, normes et standards mis à votre disposition à date
  • Identifier sa place dans la chaine de responsabilité
  • Comment embarquer l’ensemble de son organisation
  • S’outiller pour piloter le chantier

Nos experts

Isabelle Budor

Vice President, CSR & Ethics for Trusted companies, Capgemini Invent
Spécialisée depuis plus de 10 ans dans l’accompagnement des transformations d’entreprise à la croisée du réglementaire, de la data/IA, et du bon équilibre entre sécurité et libertés et droits fondamentaux (RGPD, AI Act, …), Isabelle intervient de façon pragmatique auprès d’organisations françaises et internationales, de toute taille et tous secteurs.

Raphael Viné

Senior Director Trusted AI, Capgemini Invent
Passionné par les nouvelles technologies du numérique et ayant effectué une grande partie de ses 20 ans de carrière dans le conseil auprès de différents secteurs d’activité, Raphaël a fait partie de l’aventure Quantmetry autour du développement d’IA avant de rejoindre Capgemini Invent, pour lequel il est en charge de l’offre Trusted AI et mise en conformité avec l’AI Act. Il accompagne au quotidien des clients soucieux de prendre la mesure du sujet et de définir les bonnes priorités, puis mettre en place des programmes réalistes et opérationnels.

Inès Bedar

Consultante Trusted AI, Capgemini Invent
Ancienne juriste auprès des services du Premier ministre et de la CNIL, Inès est experte en matière de règlementations relatives à l’IA, aux données personnelles, et à l’open data. Elle a travaillé avec des institutions françaises et européennes, comme le CEPD et la Commission européenne. Aujourd’hui, elle est consultante en stratégie Data et IA chez Capgemini Invent.

Asma Derbale

Manager Data, Risques et Conformité, Capgemini Invent
Juriste de formation, Asma accompagne les Directions Data sur des sujets de mise en conformité règlementaire (RGPD etc.) et de gouvernance de la donnée. Avec une expérience de plus de sept ans dans le conseil, elle accompagne principalement les grandes entreprises du secteur financier.

Damien Hervault

Responsable Expertise Trusted AI, Capgemini Invent
Damien est responsable des projets de R&D en matière d’IA. Fort de ses 15 années d’expérience dans le domaine, il dirige divers projets axés sur la plateforme Trust AI, les outils de conformité à la loi sur l’IA et la métrologie des systèmes d’IA.

Anthony Duong

Directeur conformité Services Financiers, Capgemini Invent
En charge des sujets Data, Risques et Conformité, Anthony accompagne les Directions dans la stratégie et le pilotage de grands programmes de transformation et de remédiation en France et à l’international. Il a développé une expertise autour des enjeux réglementaires, de la data / IA, de la gestion des risques, de la mise en conformité et de l’industrialisation.

Gauthier Le Courtois du Manoir

Manager de l’expertise Trusted AI
Avec aujourd’hui plus de 10 années d’expérience en conseil et la mise en œuvre de projets data, Gauthier aide nos clients à la mise en place d’une IA de confiance by design avec une expertise en audit de cas d’usage d’Intelligence Artificielle, interprétabilité des modèles et en gestion de leur cycle de vie en production.
    Pour aller plus loin

      Conformité à l’AI Act

      Avec l’AI Act européen, l’Union européenne a introduit une réglementation historique qui remodèle la gouvernance de l’IA.

      IA de confiance

      Pour pouvoir déployer l’IA générative à grande échelle, les entreprises doivent instaurer un climat de confiance.

      Libérer la confiance dans l’IA

      Transformer le potentiel de l’IA en une réalité fiable.

      Data et intelligence artificielle

      Maîtrisez vos données et transformez votre organisation.