
« Fall in love with the problem, not the solution », comme dit Uri Levine, le co-fondateur de Waze. De la même manière, ce n'est pas parce que l'IA est censée être une technologie socle pour les entreprises que cela nous indique la stratégie pour sa mise en place.
« Tout le monde s’accorde à dire que la data est extrêmement importante pour le business, cependant, au-delà de cette assertion, personne ne connaît la prochaine étape. » Cette remarque est de Mihir Shah, le Directeur des Systèmes d’Information et Responsable de la Data Chez Fidelity Investments, l’un des géants de la gestion d’actifs financiers et elle traduit, je pense, la difficulté à valoriser la contribution de la data pour une entreprise et, en conséquence, la capacité à établir une véritable stratégie.
Sans data, pas d'IA
La data est la principale fondation sur laquelle repose l’IA, sa disponibilité est un prérequis incontournable à la réussite de l’IA mais aussi à la production de tableaux de bords ainsi qu’à une meilleure intégration des données dans les systèmes d’information.
Afin d’assurer la mise à disposition des données aux directions métiers, les entreprises doivent avancer suivant deux chantiers :
- La réalisation d’une ou plusieurs plateformes data afin d’héberger des données prêtes à l’emploi et assurer leur mise à la disposition auprès des métiers
- La mise en place d’une gouvernance de la donnée avec comme objectifs prioritaires de maîtriser le patrimoine data de l’entreprise et d’améliorer la qualité des données
Ces chantiers sont nécessaires, onéreux et engageants dans la durée. Il faut cependant être clair et sans ambiguïté sur un point : la contribution de la data n’est pas directement mesurable, en dehors de sa monétisation externe à l’entreprise (soit brute, soit sous forme d’un service d’information) et celui de certaines applications à caractère réglementaire notamment pour les institutions financières. On ne mesure pas la valeur d’un échange de données entre des systèmes d’information, ni celle issue de la contribution d’un dashboard à une meilleure décision.
Data pour tous
Valoriser la contribution de la data sur l’IA est, en principe plus simple à réaliser. Pour cela, il faut estimer l’impact économique résultant de l’amélioration de la performance du modèle IA avec les données additionnelles, minoré des coûts d’acquisition (pour les données externes) et/ou de mise à disposition (pour les données internes) de la data.
En pratique cependant, une autre loi économique régit la gestion de la data : celle de l’offre et de la demande de tableaux de bords et autres KPI. Les systèmes décisionnels répondent généralement à une demande plus forte que celle de l’IA, ce qui pousse les entreprises à privilégier une stratégie de mutualisation des données sur leur plateforme. Les données sont gérées pour l’ensemble des usages de l’entreprise, mais les projets décisionnels sont priorisés… Une conséquence immédiate de cette stratégie de mutualisation des données sur l’IA se traduit souvent par la dépriorisation des projets d’industrialisation d’IA, faute de capacité à fournir les données : en principe, la data est un « bien non-rival » (c’est-à-dire que sa consommation par un agent n'a pas d'effet sur la quantité disponible de ce bien pour les autres individus) comme nous l’apprennent les économistes. Cependant, ce n’est pas le cas des ressources (humaines, financières, techniques, …) permettant la mise à disposition de ces Data auprès des métiers. La rivalité, conséquente à la rareté, de ces ressources au sein de l’entreprise invalide, en pratique, la supposée non-rivalité des données.
Afin d’éviter cet écueil, des entreprises lancent des programmes de transformation autour de la data & l’IA qui permettent de prioriser la mise à disposition des données pour l’IA. Ces programmes sont, par définition, limités dans le temps. Ils ont cependant le mérite d’infléchir la priorisation de la mise à disposition de données vers l’IA.
On comprend mieux ainsi la remarque de Mihir Shah : la versatilité de la gestion de la donnée a probablement engendré des pertes de repères pour l’ensemble des acteurs impliqués sur la marche à suivre pour la data. La « prochaine étape » évoquée par Shah, passera probablement par un travail de clarification des attentes sur la data au regard de la tension sur les ressources, des positions plus claires sur la valorisation de la Data, mais aussi, et peut-être surtout, des IA à fort impact justifiant une priorisation de la data en ce sens…
2024 sera-t-elle l’année du passage à l’échelle de l’IA générative ?
Probablement pas, et en tout cas, pour les grands modèles généralistes, le passage à l’échelle relève du vœu pieux... Les scénarios envisageables à ce stade, laissent peu de place à cette possibilité :
- L’option la plus simple pour se lancer sur un LLM est d’aller sur un grand cloud public où tous les outils requis sont directement disponibles. Ce sont les modèles les plus performants. Les deux limites sont que (1) les coûts sont élevés, le prix de $30 par mois et par utilisateur annoncé par Microsoft sur Copilot est onéreux surtout si les cas d’usages sont encore en réflexion et (2) pour les entreprises européennes interfaçant leurs données via du RAG (Retrievial Augmented Generation), la perte de la maîtrise des données via leur remontée vers le propriétaire du LLM qui est aux Etats-Unis est un risque important …
- Le modèle open source exige l’installation du LLM sur les serveurs de l’entreprise (ou le cas échéant, un cloud privé) et le coût de customisation du modèle à l’entreprise. La limite est encore une fois le coût auquel s’ajoute la puissance du serveur exigé ainsi que la capacité à l’équiper en cartes graphiques NVIDIA dont la disponibilité n’est pas avérée et dont le coût ne cesse d’augmenter… et cela, sans prendre en compte le risque géopolitique associé à leur site de fabrication, dans les usines TSMC à Taiwan – risque qui pourrait assécher instantanément le marché, entraînant avec lui une flambée des prix.
Dans ces deux cas, on observe des coûts variables élevés associés à l’inférence (la réponse à un prompt) sans perspective de baisse rapide : dans le cas du cloud, la puissance du LLM va être très consommatrice en énergie et en utilisation de cartes graphiques ; dans le cas de l’open source ; il faut y ajouter l’investissement dans une architecture propriétaire ainsi que dans les cartes graphiques. À court terme, il est impossible d’envisager une baisse des prix de l’électricité ou des cartes graphiques, et cela même sans prendre en compte le risque géopolitique pesant sur Taïwan.
À cela, il faut ajouter des coûts spécifiques aux LLM comme notamment, la gestion des « hallucinations » et la réglementation IA dont la version européenne est particulièrement exigeante les concernant. À ce stade, il semble difficile, surtout en Europe, d’envisager un passage à l’échelle rapide des cas d’usage associés à un LLM.
Tout cela n’exclut évidemment pas la mise en place d’expérimentations et de projets ciblés à partir d’IA Générative, cependant leur passage à l’échelle avec les incertitudes technologiques et économiques actuelles me semble difficile à justifier dans l’environnement actuel.
Quelles pistes pour bâtir une stratégie d’adoption de l’IA ?
Le passage à l’échelle de l’IA est une bonne stratégie IA pour des entreprises faisant face à des croissances fulgurantes sur des applications d’IA ciblés (recommandations, ciblages publicitaires, …) et dont l’organisation et les SI sont alignés sur cet objectif. Cela ne correspond pas hélas à la grande majorité des entreprises. Afin d’accélérer l’adoption de l’IA, je vois essentiellement deux enjeux majeurs :
- Passer d’une IA extensive à une IA intensive – par analogie, et à l’inverse de ce qui se fait en agriculture ! – autrement dit, passer d’une logique de saupoudrage des investissements IA à une focalisation sur un nombre limité de « big bets » ciblés sur de vrais enjeux pour le business. C’est déjà la pratique adoptée par l’industrie automobile avec le véhicule autonome ou par certains laboratoires dans le cas de la R&D, et pour cela, il faut focaliser l’adoption de l’IA par les Directions Métiers dans une optique de transformation d’entreprise parce que ce sont les métiers qui sont le mieux à même d’identifier et de porter cette transformation, ce qui implique d’en faire des acteurs responsables de la réussite de l’IA !
- Cette approche doit être facilitée par une volonté délibérée de lever les freins humains, organisationnels et institutionnels qu’ils soient internes ou externes afin de mobiliser les équipes et permettre à l’entreprise d’explorer de nouvelles opportunités tant sur le terrain de l’automatisation que des business models innovants.
L’ampleur de la tâche est colossale et c’est pour cette raison qu’à l’instar d’Uri Levin (et probablement d’Henri Ford) il vaut mieux « tomber amoureux » du problème avant de trouver la solution. Les prochains articles vont creuser chacun ces deux enjeux et afin de poser une « loi d’ohm » de l’adoption de l’IA permettant de suivre le chemin de moindre résistance.
Cet article fait partie d'une série d'articles proposés par Patrick Darmon. Pourquoi et comment l'IA doit devenir une technologie socle de nos entreprises ?
Premier volet : L’intelligence artificielle est-elle soluble en entreprise ?
Deuxième volet : Révolution de l’Intelligence Artificielle… ou simple rêve ?
Troisième volet : L'IA, combien ça coûte et est-ce que cela vaut le coût ?
Patrick Darmon est associé chez Fizz venture, cabinet de conseil en data & IA.
Participer à la conversation