Passer au contenu

IA générative en entreprise : comment réussir le passage à l’échelle ?

Benjamin Farcy
6 décembre 2023
capgemini-invent

L’IA générative gagne du terrain dans les entreprises et suscite un engouement fort tant chez les dirigeants que les collaborateurs. Comment garantir un déploiement maîtrisé de cette technologie au service d’objectifs stratégiques ?

Faut-il choisir un modèle « sur étagère » ou un développement sur mesure ? Pour éviter une « vallée de la mort » de l’IA et réussir son passage à l’échelle, les entreprises doivent affiner leur stratégie selon les secteurs et les cas d’usage, tout en intégrant l’impact de l’IA générative sur les collaborateurs et sur l’organisation interne.

L’IA générative (Gen AI, pour Generative AI) s’invite dans les conversations de 96 % des cadres au sein des entreprises. Depuis fin 2022, la déferlante ChatGPT et autres modèles linguistiques basés sur l’intelligence artificielle ont des allures de raz-de-marée. Si l’arrivée de la « data science », quelques années en arrière, a généré de la curiosité et de réelles avancées, elle n’était toutefois réservée qu’aux spécialistes. À la différence, l’usage de la Gen AI est accessible à tous et cela décuple les attentes. Tous les collaborateurs qui l’ont essayée imaginent sans difficulté et bien volontiers leur nouveau quotidien au travail, avec le soutien d’outils digitaux augmentés par les IA générative, sur le texte, l’image, le son.

Des opportunités à saisir

La démocratisation de l’IA générative est une chance, car elle procure à tous, même non-experts, la possibilité de décupler leurs facultés de compréhension et de création de contenu. Ce d’autant que la majorité des solutions utilisées en entreprise sont « prêtes à l’emploi », créant des attentes fortes et une vision parfois surestimée de leurs usages. L’utilisation professionnelle des IA génératives se concentre aujourd’hui sur la génération de texte via les Large Language Models (LLM), que ce soit pour résumer un grand volume d’informations, pour créer un contenu (e-mail, article, rapport, code) ou pour le transformer (changement de langue, de style, de langage informatique…).

Bien entendu, les risques ne sont pas nuls. Ils ne résident pas tant dans le remplacement de l’humain par la machine, ni même dans la fuite de données confidentielles – un risque aisément maîtrisable dès lors que l’IA générative est mise à disposition sur un environnement dédié et sécurisé, offrant ainsi les mêmes garanties de sécurité que tout autre service cloud. En revanche, ChatGPT et consorts ne sont pas infaillibles. D’une part, même si les contenus générés peuvent certes être maitrisés et les hallucinations réduites, un niveau de fiabilité de 100% ne peut aujourd’hui être garanti. D’autre part, l’engouement pour ces outils est si fort que la tentation de leur demander tout et n’importe quoi devient parfois irrésistible alors qu’il faudrait cibler les usages pertinents. Les risques ? Perte de temps, perte de contrôle des cas d’usage, dérapage des coûts d’utilisation (financiers et énergétiques), etc. Nombre d’entreprises gardent donc un pied sur le frein, un autre sur l’accélérateur.

3 étapes pour accélérer sans perdre le contrôle

Comment passer de la défiance à la confiance pour un passage à l’échelle réussi ?

1- Cartographier et prioriser les cas d’usage

La première étape est de cartographier les cas d’usage possibles ou augmentés avec la Gen AI et de les prioriser par leur valeur. Ceux-ci peuvent être transverses ou spécifiques à une fonction ou process. L’une des utilisations les plus populaires concerne l’« assistant de savoir documentaire » : un générateur de contenu contextualisé sur une base de savoir privée. On parle alors de RAG pour Retrieval Augmented Generation, consistant à « contextualiser » à la volée le LLM sur des données privées, propres à l’entreprise, en vue d’extraire une information spécifique : réponse à une question, mode opératoire d’une tâche… Dans ce cadre, il est possible d’assurer la traçabilité du contenu utilisé pour la génération, permettant à l’usager de vérifier l’information source et d’aller plus loin.

2- Définir un modèle opérationnel et des accélérateurs technologiques

À cette qualification des cas d’usages se greffe une autre étape cruciale, relevant des fonctions centrales de l’entreprise : la définition du modèle opérationnel et des capacités technologiques qui sous-tendent le déploiement d’une Gen AI. Quelles sont les ressources internes existantes ? La data factory, les partenariats technologiques et les infrastructures déjà en place permettent-ils de soutenir le déploiement de la Gen AI ou faudra-t-il les adapter ? Quelles sont les règles d’utilisation à définir pour tous et les accélérateurs technologiques au service des fonctions ? De manière générale, les entreprises qui ont déjà engagé leur transformation digitale et dotées d’une data factory ont un coup d’avance pour accélérer avec un LLM.

3- Imposer des garde-fous

La définition du modèle opérationnel et des solutions technologiques qui permettent d’accélérer ne peut s’opérer sans garde-fous. Quelles sont les contraintes propres à l’entreprise (réglementaires légales, stratégiques) auxquelles sera soumis l’usage d’un LLM ? À titre d’exemple, dans des secteurs comme l’aéronautique et le spatial coexistent des données de différents niveaux de sécurité, dont les plus critiques ne peuvent transiter sur le cloud, mais seulement sur des serveurs privés.

D’un point de vue réglementaire, et éthique, les entreprises devront aussi s’adapter à l’AI Act, adopté par le Parlement européen en juin 2023 et dont la mise en application, prévue pour 2024, pourrait écrire le futur de l’IA.

Volume d’utilisation et coût

Vient ensuite le choix de la solution (ou des solutions) adaptée à chaque cas métier. Certaines entreprises devront faire le grand écart entre les besoins pointus d’une petite équipe de R&D et un assistant documentaire générique offert à plusieurs dizaines de milliers de collaborateurs.

D’où l’intérêt de disposer d’un éventail d’options technologiques. Entre GPT-3 et ses 175 milliards de paramètres et des modèles plus petits à moins de 10 milliards de paramètres comme celui de Mistral AI, l’offre est large et continue à s’étoffer chaque semaine. Plusieurs critères de choix interviennent, dont le nombre d’utilisateurs concurrents et le niveau de performance attendu, mais aussi le coût, à rapporter au volume d’utilisation et à la valeur délivrée par le cas d’usage considéré.

Beaucoup d’entreprises choisissent, pour sa flexibilité tarifaire, le paiement à l’usage propre aux solutions cloud (Google, OpenAI…). Un choix de raison pour commencer, si les contraintes technologiques le permettent. Un volume d’usage très important ou des contraintes spécifiques peuvent justifier un hébergement en propre, nécessitant toutefois un fort investissement initial et une infrastructure spécifique. Pour garder la maitrise du déploiement à l’échelle, il est conseillé d’établir en central l’éventail des possibles technologiques permettant de mettre en œuvre l’IA générative ainsi que les critères de décisions entre les différentes options.

Modèle « sur étagère » ou custom ?

Avec raison, la plupart des entreprises qui se lancent dans la Gen AI ont recours à des solutions « sur étagère ». Les LLM du marché autorisent déjà plusieurs niveaux de customisation, du prompt engineering consistant à ajouter des instructions (de langue, de style…), jusqu’au prompt tuning, modalité de customisation la plus usitée par les entreprises (à l’instar du modèle RAG précité). Les cas d’usage plus spécifiques encore pourront faire appel au fine tuning, demandant des compétences et des moyens plus avancés, consistant à spécialiser par entrainement le modèle open source pour booster sa performance dans un contexte donné. Degré ultime de customisation pour l’entreprise : développer son propre LLM. Cette option, la plus exigeante en coût et compétences, doit être justifiée par de très bonnes raisons : quête de performance dans un champ hyper ciblé (pharmacie par exemple), utilisation de données très spécifiques, volonté de se positionner comme fournisseur d’IA…

Embarquer et former les collaborateurs

Enfin, pour une Gen AI durablement performante, il importe de construire avec les utilisateurs dès le départ, de les former à minima au prompt engineering pour les usages généralistes de bureautique et de façon plus poussée pour des fonctions spécialisées (développeur, designer, commercial, ingénieur…), potentiellement toutes augmentées par l’IA. Une course d’endurance plutôt qu’un sprint.

L’ai Act en bref

Adopté le 14 juin 2023 par le Parlement européen, l’AI Act fixe le cadre réglementaire à l’usage et la commercialisation de l’intelligence artificielle. L’AI Act catégorise les technologies d’IA en fonction de leurs usages et des risques qu’elles induisent, de « minime » à « inacceptable ». Son objectif : assurer la protection des données, et garantir transparence, sécurité et éthique en imposant des garde-fous pour chaque catégorie d’IA.
 
Pour se conformer à l’AI Act, les LLM ont encore beaucoup de chemin à parcourir. En cause, leur manque de transparence (informations concernant les données, le calcul et le déploiement de leurs modèles, documentation sur l’utilisation de données d’entraînement protégées par des droits d’auteur, sur le matériel utilisé et sur les émissions produites lors de la phase d’entraînement, etc.). En l’état, le recours et l’industrialisation de la Gen AI pourrait être largement freinés au sein des entreprises.

Le sujet des LLM est encore en discussion entre les dirigeants des pays européens. Doivent-ils être intégrés à l’AI Act ou au contraire, en être écartés pour disposer d’une réglementation à part ? Il faudra trancher avant l’entrée en vigueur de l’AI Act, prévue pour 2024.

Auteur

Benjamin Farcy

Director Data Science & Engineering, Capgemini Invent
En tant que Director Data Science & Engineering chez Capgemini Invent, Benjamin dirige et livre des projets avec des équipes multifonctionnelles. Il développe les opportunités avec les nouveaux clients, et ceux existants. Benjamin co-construit des projets avec les clients et contribue à des offres commerciales orientées solutions. Il fait également partie de l’équipe de direction, définissant l’orientation des data scientists et ingénieurs.
    Pour aller plus loin

      IA générative

      Les premières organisations à l’adopter sauront avant les autres réinventer leur modèle d’affaires.

      Data & intelligence artificielle

      Maîtrisez vos données et transformez votre organisation.