Passer au contenu
Trusted AI Web-banner

Depuis 2023, l’adoption de l’IA générative a augmenté de manière significative dans certains métiers tels que la relation clients, le marketing et les ventes, l’ingénierie logicielle et la R&D. Dans un monde où 50% des décisions commerciales ou organisationnelles pourraient être prises par l’IA, les entreprises doivent travailler pour instaurer un climat de confiance.

L’IA générative est de plus en plus présente dans les organisations. Selon notre dernière étude, 97% d’entres elles autorisent leurs employés à utiliser cette technologie. Alors que les Large Language Models (LLM) et les systèmes d’agents basés sur l’IA présentent un grand potentiel, des questions se posent quant à la partialité de leurs données d’apprentissage et à la robustesse de leur sécurité.

L’essor des modèles de fondation s’accompagne de problèmes de confiance. Ne pas les traiter pourrait entraîner des pertes financières et des risques pour les entreprises.

Une exécution incohérente de l’évaluation et des tests, un manque de contrôle du contenu ou l’absence de benchmarks cohérents peuvent conduire à des solutions peu fiables.

Pour pouvoir déployer l’IA générative à grande échelle de manière efficace, les organisations doivent envisager des mesures de protection à l’échelle opérationnelle, plutôt que spécifique à une solution, tout en veillant à établir un cadre adapté au domaine d’activité.

« La confiance ne se résume pas à une seule question, c’est un problème multidimensionnel qu’il faut considérer dans un contexte spécifique. »

Notre mission

Au sein de Capgemini, nous estimons que chaque fonction au sein d’une entreprise a la responsabilité de garantir une IA fiable, c’est pourquoi notre approche multi contexte ne vise pas à être une solution unique, mais propose plutôt des cadres adaptés aux différents fonctions et scénarios d’une entreprise.

Pour qu’une organisation dispose d’une IA fiable, conforme, éthique et responsable, il faut que chaque participant joue son rôle dans le cadre d’une approche globale cohérente. Cela n’est possible que lorsque l’IA de confiance est appliquée à la gouvernance d’entreprise, à l’exécution technique et aux opérations.
Par exemple, notre cadre d’IA de confiance pour les Achats aide les Directeurs (CPO) à examiner et évaluer les fournisseurs de modèles, ainsi qu’à utiliser les outils de gestion financière nécessaires pour évaluer leurs méthodes et leurs sources de données. Cela permet de s’assurer que seuls les fournisseurs validés et fiables soient autorisés au sein de l’organisation. Notre analyse sur les aspects de cybersécurité se concentre sur l’évaluation des menaces liées à l’adoption de l’IA, couvrant les attaques de type « trojan horse », ainsi que les mises à jour de sécurité nécessaires à l’identification des utilisateurs et la délégation d’autorité pour prévenir à la fois les problèmes liés aux attaques massives d’ingénierie sociale.
Notre approche business et notre stratégie en matière d’IA de confiance explorent aussi la gestion du changement organisationnel nécessaire pour parvenir à un nouveau modèle d’entreprise dans lequel les cadres sont en mesure d’inclure l’IA en tant que membre à part entière de l’équipe, d’être responsables des résultats et de veiller à ce que l’IA soit le moteur de la réussite professionnelle de l’entreprise ainsi que leur carrière personnelle quelle que soit la plateforme.

Pour que l’IA inspire de la confiance partout, l’ensemble des collaborateurs a un rôle à jouer.

    Capgemini RAISE – Reliable AI solution engineering

    L’IA générative : accélérateur de cas d’usages pour le passage à l’échelle, la confiance en entreprise et la réduction des coûts.

    Conformité à l’EU AI Act

    EU AI Act : construire une approche solide, légale et éthique

      Nos experts

      Isabelle Budor

      Vice President, CSR & Ethics for Trusted companies, Capgemini Invent
      Spécialisée depuis plus de 10 ans dans l’accompagnement des transformations d’entreprise à la croisée du réglementaire, de la data/IA, et du bon équilibre entre sécurité et libertés et droits fondamentaux (RGPD, AI Act, …), Isabelle intervient de façon pragmatique auprès d’organisations françaises et internationales, de toute taille et tous secteurs.

      Raphael Viné

      Senior Director Trusted AI, Capgemini Invent
      Passionné par les nouvelles technologies du numérique et ayant effectué une grande partie de ses 20 ans de carrière dans le conseil auprès de différents secteurs d’activité, Raphaël a fait partie de l’aventure Quantmetry autour du développement d’IA avant de rejoindre Capgemini Invent, pour lequel il est en charge de l’offre Trusted AI et mise en conformité avec l’AI Act. Il accompagne au quotidien des clients soucieux de prendre la mesure du sujet et de définir les bonnes priorités, puis mettre en place des programmes réalistes et opérationnels.