Passer au contenu

Le cloud, vecteur incontournable de l’IA générative

Serge Baccou
23 mai 2024

L’irruption spectaculaire de ChatGPT a révélé aux organisations publiques et privées l’extraordinaire potentiel de l’Intelligence Artificielle Générative. Toutes espèrent désormais en tirer profit pour doper leur efficacité opérationnelle et créer de nouvelles propositions de valeur. Cependant, pour cela, elles devront emprunter un passage quasi-obligé : le cloud.

Cinq raisons sur l’importance du cloud pour l’IA générative :

Parce que c’est l’outil de l’expérimentation et du passage à l’échelle

L’IA générative est une technologie nouvelle, aux possibilités extrêmement vastes. Aussi, les idées fusent, dans tous les domaines, mais on manque souvent du recul nécessaire pour en évaluer la pertinence. Il est donc crucial d’apprendre, tester et expérimenter pour se forger des certitudes et ne poursuivre que les pistes les plus prometteuses. Le cloud et son modèle de facturation pay-as-you-go permettent de lancer sans risque des expérimentations tous azimuts, de les stopper si elles ne sont pas concluantes ou, au contraire, d’en étendre le périmètre. De plus, le cloud offre une visibilité et un contrôle sur l’évolution des coûts, permettant ainsi d’ajuster les projets pour maintenir leur rentabilité à l’échelle.

Parce que c’est l’unique moyen d’accéder à la puissance nécessaire

L’expérimentation n’est pas propre à l’IA générative, mais cette technologie nécessite une puissance de calcul importante. Par exemple, le système Eagle de Microsoft, conçu pour l’IA générative, était, en novembre 2023, la troisième machine la plus puissante au monde. Microsoft prévoit d’aller encore plus loin avec Stargate, un supercalculateur à 100 milliards de dollars. Seuls quelques géants de la tech (les hyperscalers, auxquels on ajoutera Méta) et startups comme Mistral AI ou Anthropic peuvent répondre à de tels besoins.

Il est intéressant de réaliser que les principaux modèles sont disponibles sur les clouds des hyperscalers :

Fournisseur du LLMAzureAWSGoogle Cloud
OpenAI GPTX
Google GeminiX
AWS TitanX
Meta LLamaXX
Mistral AIXX
Anthropic ClaudeXXX

En outre, cette puissance ne peut pas être obtenue uniquement à l’aide de CPU, mais nécessite des GPU (Graphics Processing Units), bien plus coûteux et rares. NVidia, qui en détient le quasi-monopole sur le marché des GPU, voit ainsi ses commandes exploser, ce qui fait monter les prix (prix catalogue d’environ 30 000 $ pour un H100) et rallonge les délais de livraison. Sachant qu’un data center dédié à l’IA compte généralement plusieurs dizaines de milliers de GPU, il est pratiquement impossible de bâtir sa propre infrastructure. Sans parler de concurrencer Microsoft et Meta, les deux plus gros clients de Nvidia, qui, fin 2024, devraient disposer chacun d’environ 600 000 GPU. Les GPU sont une ressource critique pour laquelle il existe peu d’alternatives, même s’il commence à en apparaître, comme les TPU (Tensor Processing Units) de Google, les MTIA (Meta Training and Inference Accelerators) de Meta, ou encore les LPU (Language Processing Units) de la startup Groq, spécialisés dans l’inférence de modèles existants pour minimiser les temps de réponse. Dans cette « course à l’armement », les hyperscalers apparaissent là encore incontournables et le cloud restera certainement le seul moyen d’accéder à la puissance nécessaire à un tarif et un délai raisonnable.

Parce qu’il bénéficie de la « data gravity »

Pour les organisations, l’IA générative est surtout intéressante lorsqu’elles peuvent l’utiliser sur leurs propres données. En raison des volumes échangés, il est crucial pour des raisons de performances que ces données soient physiquement proches de l’exécution de l’algorithme : c’est ce qu’on appelle la « data gravity ». Les données vont donc continuer à se déplacer massivement vers le cloud, là où, on vient de le voir, la Gen AI est appelée à fonctionner principalement.

Parce que les catalogues de services s’étoffent rapidement

Dans le cloud, les entreprises peuvent déjà trouver un large éventail de ressources pour leurs projets de Gen AI – en IaaS (fournitures de puissance de calcul sur la base de GPU), PaaS (LLM prêts à être utilisés) ou SaaS (logiciels dopés à l’IA générative) – et cette offre s’enrichit continuellement. Grâce aux solutions spécialisées par Métier, comme Github Copilot de Microsoft pour les ingénieurs logiciels, Einstein de Salesforce ou Joule de SAP, il est possible de tirer immédiatement bénéfice de la Gen AI, sans attendre d’en posséder toutes les expertises. Les organisations peuvent ainsi construire à l’aide de briques plus génériques, leurs propres solutions créatrices de valeur.

Parce que c’est la plateforme qui permet de se former

L’IA générative révolutionne de nombreux métiers. Les futurs collaborateurs « augmentés » doivent apprendre à cohabiter avec ce nouvel outil, à domestiquer sa puissance et à l’utiliser à bon escient, avec discernement et vigilance. Le besoin de formation est important. Pratique, malléable et accessible, le cloud va s’imposer comme la plateforme privilégiée pour apprendre et s’entraîner, d’autant plus que les hyperscalers proposent des programmes dédiés. À titre d’exemple, Microsoft a lancé en France un programme baptisé « À vous l’IA », qui vise à sensibiliser et former 100 000 Français à l’IA générative en 2024.

En définitive

Pour mettre en œuvre l’IA générative sans passer par le cloud, il faudra disposer à la fois de ressources considérables et de raisons impérieuses. Cette option ne sera véritablement envisageable que pour des institutions de premier plan, manipulant des données extrêmement sensibles et pouvant éventuellement mutualiser leurs ressources : défense, finance, santé, secteur public… Pour la grande majorité des organisations, le cloud va devenir le vecteur incontournable de l’IA générative et l’accélérateur de son adoption. En revanche, elles devront être vigilantes quant au risque de dépendance vis-à-vis de leur fournisseur (vendor lock-in). Recourir à des modèles open source et portables sera sans doute l’une des stratégies à considérer.

Auteur

Serge Baccou

Vice Président, Head of South and Central Europe Azure Cloud COE, Capgemini
Vice President Cloud au sein de la division Business Technology de Capgemini Invent France, Serge Baccou mène pour les clients de Capgemini des programmes de transformation technologique à grande échelle. Cela inclut des sujets de migration vers le cloud, d’impacts sur le modèle organisationnel cible (TOM), de gestion du changement et d’introduction de DevSecOps et d’agilité à l’échelle. Au sein de Capgemini, Serge dirige également la création d’une offre Cloud Souverain / Cloud de Confiance pour le marché français
    Pour aller plus loin

      Objectif CLOUD

      Explorez le potentiel du cloud avec notre podcast dédié

      Cloud

      Accélérez votre transformation vers le cloud