Passer au contenu

IA générative : le temps de la transformation

Pierre Demeulemeester
25 janvier 2024
capgemini-invent

2023 a été une année d’exploration et de structuration dans le domaine de la Gen AI pour les entreprises. En 2024, la cible est le passage à l’échelle. Pour y parvenir, elles devront clarifier leurs priorités stratégiques et leur trajectoire de transformation, constituer les capacités requises et se mettre en situation de maîtriser les risques liés à cette technologie.

Quatre mois seulement après le lancement de ChatGPT en novembre 2022, 90% des entreprises avaient déjà déployé leurs premières expérimentations autour de l’IA générative (Gen AI), selon une étude Capgemini Research Institute.

Un engouement qui s’explique à la fois par le caractère très visible et le coût d’expérimentation très faible de cette technologie. Pourtant, seules 5% d’entre elles témoignent aujourd’hui être passées à une phase de déploiement industrialisé.

L’IA générative est une technologie naissante, à fort potentiel et évoluant très rapidement. Aux entreprises de faire preuve d’adaptabilité pour en tirer le maximum à l’échelle, en répondant au préalable à une question qui est aujourd’hui au cœur des préoccupations : au-delà des promesses et des effets d’annonce, quelle est la véritable valeur à aller chercher ?

Repenser les expériences, les processus et les produits

Après plusieurs mois d’exploration, le marché se concentre aujourd’hui sur trois grandes typologies d’usages, qui laissent chacune présager des enjeux, une portée et des horizons de déploiement distincts.

En premier lieu et à l’horizon de quelques mois, l’intelligence artificielle générative va se manifester dans les organisations au travers le déploiement et l’intégration de nouvelles fonctionnalités dans les outils du quotidien. Par exemple, on peut citer les différents Copilot de Microsoft pour la bureautique d’usage générale, ou encore les outils d’Adobe pour la conception graphique.

Ces assistants – pour les plus pertinents d’entre eux – constitueront demain une « commodité » essentielle, à disposition de tous. Les gains de productivité à attendre seront variables selon les métiers considérés, plutôt modestes, mais accessibles à une large population d’utilisateurs. Le challenge pour les entreprises consistera à accompagner et maîtriser les coûts et les risques associé au déploiement de ces technologies « clé en main », en commençant par la formation des collaborateurs.

De manière plus ciblée, l’arrivée de la Gen AI va amener également les principales fonctions de l’entreprise à repenser leurs processus et leur organisation autour de l’adaptation et l’intégration de nouveaux outils dans les systèmes d’information. Aujourd’hui, le marché concentre ses efforts sur le développement software, les métiers du marketing, du back office, la recherche et la synthèse documentaire, le support à destination des employés et des usagers, ou encore la gestion et le pilotage contractuel. L’adoption de ces outils posera probablement de nouveaux standards de productivité sur ces fonctions communes, avec des gains importants à attendre à l’échelle de fonctions entières. 

A moyen terme et au-delà, des nouveaux standards de productivité vont progressivement s’installer, et le véritable potentiel de différenciation stratégique se créera autour des entreprises qui auront su repenser en profondeur leur processus, leurs expériences et leurs produits « cœur de métier » pour y intégrer l’IA générative « by design », et non comme une « rustine » apposée sur des processus qui resteraient inchangés.

Cette réflexion sera nécessairement spécifique à chaque secteur et à chaque entreprise : les acteurs de la grande consommation pourront ainsi chercher à automatiser au maximum toute la chaîne de production de contenus marketing afin de proposer à l’échelle une expérience client de plus en plus engageante et personnalisée. Les acteurs du tourisme repenseront l’expérience client pour la rendre de plus en plus sans couture, adaptable. Dans la banque, il pourra s’agir d’atteindre un nouveau niveau d’automatisation et d’industrialisation des tâches de back office et de maîtrise des risques réglementaires, ou encore améliorer l’expérience client et employé.

Après de la bataille qui fait aujourd’hui rage sur les solutions technologiques et leur performance, les années à venir vont probablement être le théâtre d’une guerre des expériences et des modèles d’affaires, avec un enjeu de différenciation qui va surpasser la course aux gains de productivité (qui seront dans tous les cas amenés à devenir des standards de marché). Comme cela a été le cas pour la transformation numérique dans les années 2010, cette compétition se jouera tout autant sur la clairvoyance de la vision stratégique que sur la capacité d’exécution.

Éviter la « vallée de la mort » des preuves de concepts

La plupart des entreprises gardent en mémoire l’amer souvenir de la fameuse « vallée de la mort » des proof-of-concept (PoC) de la génération précédente des IA, qui se sont multipliées pendant de longues années sans jamais dégager une valeur tangible dans la main des utilisateurs métier.

S’il est légitime de se demander si l’IA générative est amenée à suivre le même chemin, force est de constater que le point de départ n’est pas le même. Aujourd’hui, les entreprises ont pour la plupart structuré des fonctions IA matures, avec un modèle opérationnel, des compétences et un ensemble de processus et d’outils dédiés sur lesquels elles pourront capitaliser. Du point de vue de la capacité à « faire », ces structures sont souvent adaptées mais, nécessiteront toutefois d’être complétées et enrichies pour accueillir de nouvelles compétences et outils pour servir de fondation au développement et au déploiement de bout en bout des cas d’usages d’IA générative.

Il s’agira par exemple de développer de nouvelles activités autour de la gestion des données non structurées, qui serviront d’entrée aux modèles, ou encore un socle d’outils pour maitriser et optimiser la performance des modèles sur la durée (LLMOPs).

Le passage à l’échelle des cas d’usages va rapidement poser une problématique majeure de maitrise des coûts. Les expérimentations sont aujourd’hui conduites principalement sur de très larges modèles généralistes, qui présentent une performance fonctionnelle globalement satisfaisante, mais un coût à l’usage élevé, a fortiori dans la perspective d’un déploiement sur plusieurs milliers d’utilisateurs.

La capacité à sortir des modèles généralistes pour les remplacer par des alternatives open source managées en propre ou des modèles plus spécifiques et plus légers (« fit for purpose ») sera dans ce contexte clé pour garantir la pertinence économique des cas d’usages.

C’est le sens de la proposition de valeur portée par des start-ups françaises comme Mistral.AI qui propose aujourd’hui les modèles les plus performants à poids équivalent sur le marché.

Ainsi, même si l’arrivée à maturité de l’IA générative suscitera probablement une part de déception au moment où les attentes gagneront en lucidité, le risque de la « vallée de la mort » n’est probablement pas aussi prégnant que ce qu’il a pu être – a fortiori pour les organisations aujourd’hui matures dans l’IA. Pour autant, il subsiste un frein majeur au déploiement massif : la maîtrise des nouveaux risques spécifiques entraînés par l’IA générative.

Anticiper les risques d’une technologie pervasive, aussi simple à expérimenter que complexe à maîtriser

L’IA générative présente plusieurs caractéristiques singulières qui la rendent plus fondamentalement risquée que les générations d’IA précédentes. Dans un contexte ou la technologie, facile d’accès, se répand à grande vitesse dans les mains de tous les employés, parfois dans un cadre non maitrisé, et où les erreurs et les ratés sont, de manière inédite dans l’histoire de l’IA, en prise directe avec les utilisateurs, la maitrise des risques apparait comme un enjeu critique.

  • Le premier risque est d’ordre opérationnel : garantir la fiabilité (Trustworthiness) des modèles pour traiter la tâche qui leur a été confiée. A la différence des générations précédentes d’IA, où les algorithmes étaient entrainés pour une tâche spécifique bien détourée, les modèles de fondation aujourd’hui sont pré-entrainés et versatiles. Il est bien plus simple de les appliquer immédiatement sur un champ large de tâches, mais bien plus complexe de prédire, expliquer et mesurer la performance à attendre sur une tâche donnée.

Ainsi, même si l’année 2023 a permis des progrès significatifs sur le domaine (avec notamment les architectures dites RAG), les fameuses « hallucinations », ces affirmations biaisées ou inexactes émises avec une assurance trompeuse par les modèles, restent  un risque réel, dont les conséquences peuvent nuire à la réputation de l’entreprise et entraîner une perte de confiance chez les parties prenantes, internes et externes.

La maîtrise de ce risque passe tout autant par la mise en place de garde-fous technologiques et l’optimisation des modèles que par la formation des utilisateurs et la conception de processus d’emploi permettant de garder un « humain dans la boucle » sur les tâches critiques. Nos expérimentations convergent à ce titre sur le caractère à « double tranchant » des solutions : si, à l’usage elles peuvent se révéler un précieux accélérateur pour les employés qui savent les utiliser à bon escient, elles peuvent également induire à une baisse de vigilance qui amène à des erreurs destructrices de valeur.

  • Le second enjeu est juridique et réglementaire. Comme l’illustre la plainte déposée fin décembre 2023 par le New York Times contre OpenAI, la question de la propriété intellectuelle et des droits d’auteurs reste aujourd’hui à clarifier sur le champ juridique : quels sont les possibilités de recours des ayants droits si une entreprise utilise un contenu protégé sorti d’un LLM ? Quels droits possèdent-elles sur les contenus générés ?

Les conditions générales de l’usage des solutions proposés par les éditeurs sont à ce titre particulièrement critiques pour établir un cadre juridique au déploiement des solutions. Au-delà, les entreprises devront aussi se plier à l’AI Act, qui va poser un cadre contraignant sur les dos et les don’ts adossés aux usages dits « à risque » des technologies d’IA, ainsi qu’un volet spécifique sur les modèles de fondation.

La loi, votée par le Parlement, le Conseil et la Commission européenne en décembre 2023, devrait entrer en vigueur en 2025 : un temps court pour revoir le cas échéant de fond en comble des algorithmes au cœur du modèle opérationnel.

  • Le dernier risque est lié à la protection des données et la sécurité des systèmes d’information. La diffusion des LLM au sein des entreprises va créer de nouvelles vulnérabilités, depuis la diffusion de données confidentielles vers un LLM « public » non sécurisé par un employé distrait, jusqu’à des attaques visant à amener le LLM à désobéir à ses instructions initiales à travers des instructions malveillantes dans le « prompt » (« prompt injection »).

Comme toute technologie en cours de maturation, les risques sont multiples et évoluent rapidement, ce qui va nécessiter une vigilance toute particulière pour les fonctions en charge de la sécurité des systèmes d’information. 

Vers une montée en maturité « à marche forcée » des entreprises sur l’IA ?

L’IA générative va offrir un champ des possibles de premier ordre à explorer pour les entreprises, depuis le simple déploiement d’outils de productivité jusqu’à la transformation en profondeur des expériences, des processus et des produits. La conduite et la mise à l’échelle de cette transformation sera un défi d’exécution.

Dans ce contexte, les responsables et les équipes en charge de l’IA au sein des entreprises seront en première ligne. Ils devront permettre de projeter les métiers dans une vision future tout en apportant un regard de vérité sur les limites de la technologie.

En charge de la mise à l’échelle de la technologie, ils vont devoir faire face à de nouveaux défis, dans un contexte de rareté des retours expériences et des expertises.

Pour ces équipes, souvent « jeunes », et pour certaines, encore en cours de structuration, tenir les délais et maîtriser les risques de cette transformation, va nécessiter de franchir rapidement un palier de maturité depuis d’une organisation « artisanale » vers des modes de fonctionnement plus « industriels » dans la conception et la maintenance des solutions, en incorporant nativement une fonction de maîtrise des risques de l’IA. La course est lancée !

Auteur

Pierre Demeulemeester

VP Data Strategy & Transformation, Capgemini Invent
Pierre est vice-président chez Capgemini Invent et dirige la pratique Capgemini Invent Data. Il a mené de nombreux projets de définition de vision stratégique, de conception de modèle opérationnel, d’évaluation de cas d’usage dans le domaine de la gestion des données dans tous les secteurs : industrie, services publics, santé, services, etc. Il a plus de 13 ans d’expérience dans le conseil en stratégie data.
    Pour aller plus loin

      IA générative

      Les premières organisations à l’adopter sauront avant les autres réinventer leur modèle d’affaires.

      Data & intelligence artificielle

      Maîtrisez vos données et transformez votre organisation.