Un petit personnage miniature en plastique assis sur des pièces

L'IA, combien ça coûte et est-ce que cela vaut le coup ?

Déployer l'IA en entreprise... tout le monde en parle. Mais peut-on réfléchir avant que de "passer à l'échelle".

« Mieux vaut avoir à peu près raison que précisément tort. » Cette maxime de John Maynard Keynes, l’illustre économiste britannique s’applique à l’intelligence artificielle, et en particulier dans le cadre des grandes entreprises. Nous évoluons dans un domaine où les business models sont encore mal définis et, où les coûts n’ont pas la même clarté que ceux présentés dans les manuels d’économie. Ce n’est pas un hasard si les GAFAM et de nombreux acteurs de la Silicon Valley emploient des bataillons d’économistes issus du monde académique afin d’apporter la clarté requise au regard des enjeux.

Dans cet article, notre ambition est d’apporter un premier éclairage sur la dimension économique de l’IA et de son application au monde de l’entreprise, un domaine où l’on croise plus souvent Monsieur de la Palice que Lord Keynes. Notre point de départ sera l’analyse des coûts associés à l’IA, même lorsqu’ils ne sont pas bien connus, afin d’évaluer la capacité des business models proposés à produire des résultats. Les conclusions qui ressortiront de cette analyse permettront de poser les bases indispensables à la compréhension des enjeux que nous avons identifiés (L’intelligence artificielle est-elle soluble en entreprise ?) afin d’accélérer l’adoption de l’IA et son impact sur la performance des entreprises.

Une telle démarche ne peut prétendre à l’exhaustivité et encore moins à l’objectivité, et sur ce point, comme sur beaucoup d’autres, je serais Keynésien…

Le passage à l’échelle et ses limites

Passer l’Intelligence Artificielle à l’échelle ! C’est le mantra des Chief Data Officers (CDO) ; un objectif clair et en apparence, incontestable, qui pourtant mérite qu’on s’y arrête. Avant tout, parce que le concept de passage à l’échelle est rarement défini et encore moins partagé dans les entreprises, ce qui en fait une source de confusion.

Pour les uns, il s’agit d’une finalité, comme « avoir déployé l’IA dans toute l’entreprise » sans indiquer si un quelconque bénéfice en découle. Pour d’autres, il s’agit de designer le processus d’industrialisation d’un Proof of Concept (PoC) par un synonyme. Enfin, pour de nombreux CDO, le passage à l’échelle est le fait de déployer l’IA au-delà du Minimum Viable Product (MVP) initial et au-delà du périmètre (organisation, produits, clients, …) initial sur lequel il a été conçu. Nous nous appuierons sur cette dernière version que nous allons analyser plus bas, mais avant cela, nous devons faire une escale en Californie qui est le berceau du passage à l’échelle.

À l’origine, le passage à l’échelle (scaling) est un business model issu du monde des startups et de la Silicon Valley. Selon les travaux de Timothy Bresnahan de Stanford, le spécialiste de l’économie des technologies de l’information, le passage à l’échelle de l’IA signifie qu’une IA peut supporter une large augmentation de son volume d’activité (en nombre de prédictions) sans impacter sensiblement son architecture (et par extension, les coûts fixes associés).

Pour une startup, le passage à l’échelle, de tout, y compris celui de l’IA, est une condition sine qua non à la maîtrise des coûts mais aussi, et peut-être surtout, la possibilité d’atteindre des niveaux de rentabilité exceptionnels lorsque la croissance attendue est au rendez-vous. Cela est parfaitement cohérent avec le modèle des startups qui visent à la fois un rythme de croissance et des niveaux de rentabilités élevées : avec une croissance rapide, les coûts fixes de l’IA sont rapidement amortis et, au-delà du seuil de rentabilité, la marge brute se rapproche de la marge nette, permettant ainsi d’augmenter sa contribution aux résultats. Cela d’autant plus que le coût marginal de l’IA – le coût de la prédiction – est négligeable (sauf en ce qui concerne l’IA générative).

Le système de recommandations d’Amazon, probablement l’une des IA les plus documentées de passage à l’échelle, illustre bien cette mécanique. Il a exigé des investissements conséquents (les coûts fixes) de la conception à la mise en production mais dès qu’il est entré en production, les coûts fixes sont passés dans le rétroviseur et, eu égard à la croissance et à la taille d’Amazon, on entrevoit facilement les économies d’échelle qu’il a permis de réaliser. Si le système a significativement évolué au fil des années afin d’améliorer son apprentissage (au regard de l’impact de l’efficacité des recommandations sur les ventes, on imagine difficilement ce système en « roue libre »), le coût de ces évolutions reste sans commune mesure avec les gains additionnels qu’il génère. Une fois qu’il est en production, le système est tout aussi performant le 2 janvier que durant le Black Friday, et cela, tant sur la qualité de ses prédictions que sur ses temps de réponses !

Le concept de « passage à l’échelle » s’est rapidement imposé au monde de l’entreprise, toutefois, sa sémantique a subi des évolutions telles qu’elles ont fini par altérer son équilibre économique :

  1. La vitesse d’adoption attendue des modèles d’IA est généralement plus lente pour les grandes entreprises que pour les startups, notamment parce qu’elles partent rarement de « rien », et que, le plus souvent, l’IA automatise une fonction existante sans sérieusement considérer l’évolution de son volume. Cette approche invalide la nécessité pour l’IA de passer à l’échelle, dans la mesure où, lors de l’adoption, la variation du volume de prédictions n’a pas la progression exponentielle lui permettant de réaliser rapidement les économies d’échelle. Il n’est donc pas aussi critique que pour une startup d’avoir un modèle capable d’assurer cette forte variation de volumes, et dans ce cas…

2. … Il ne s’agit plus de s’appuyer sur un modèle d’IA unique, mais plutôt de répliquer un MVP éprouvée sur une usine, un magasin ou encore un pays dans toutes les autres usines, magasins ou pays de l’entreprise, ce qui lui permet d’assurer l’augmentation du volume requise afin de réaliser les économies d’échelle attendues.

À ce stade, l’IA se heurte à deux réalités, parfois trois, qui affectent son coût marginal (devenu celui du coût de la réplication et non plus, celui de la prédiction) :

  • La réalité physique des usines, comportementale des clients, culturelle des marchés ou encore réglementaire des pays exige des adaptations de chaque modèle d’IA. Cette réalité est évidemment présente à l’identique pour tous, GAFAM ou entreprises.
  • La réalité des environnements technologiques et data hétérogènes contraint le modèle IA à s’adapter à des Systèmes d’Information hétérogènes et à une disponibilité, au mieux, partielle, des données requises pour adapter le modèle d’IA.
  • Une dernière réalité, présente dans certaines industries est celle de la multiplicité des territoires organisationnels qui a pour effet de multiplier les déploiements (et par conséquent leurs coûts) alors qu’ils adressent le même marché : imaginez amazon.fr découper son organisation par département, chacun avec ses propres données et ses data scientists, et suivre cette logique pour déployer son IA, soit réaliser 101 déploiements plutôt qu’un seul au niveau national… Cela aboutit à supprimer les économies d’échelle envisageables avec l’IA.

Le cumul de toutes ces spécificités augmente le coût de réplication des modèles et a pour effet de laminer les économies d’échelle et, ainsi même, la pertinence du passage à l’échelle.

On pourrait espérer qu’avec une baisse progressive du coût des technologies IA, le passage à l’échelle devienne rentable, cependant, cette éventualité n’offrira pas de salut. Les problèmes que nous avons décrits prennent leur source dans la diversité des environnements réels, informationnels et parfois organisationnels des entreprises et il n’y a pas de panacée permettant d’aplanir ces différences.

Ainsi, le passage à l’échelle, dans sa version entreprise, n’offre pas le même potentiel que dans sa version initiale, celle des startups. Son adoption pour les entreprises peut être bénéfique, surtout lorsqu’elles font face à (1) des réalités physiques et de marchés homogènes, (2) des données disponibles et identiques entre les différents sites de déploiement et enfin (3) une organisation en capacité de réaliser des économies d’échelle.

Si toutefois ces conditions étaient absentes, un cas d’usage IA présentant une rentabilité exceptionnelle, comme on peut en rencontrer dans les industries fortement capitalistiques (énergies, aéronautique, life science, …) serait à même d’assurer à la fois la réplication d’un MVP sur un nouveau périmètre et de maintenir une rentabilité élevée. Cependant, dans ce cas, on doit envisager un arbitrage entre un passage à l’échelle au forceps d’un MVP et la mise en place de modèles spécifiques par entité. Cette seconde option présentant, le cas échéant, l’intérêt de rentabiliser plus rapidement le cas d’usage.

En synthèse, le passage à l’échelle ne peut pas être la base universelle d’une stratégie IA tant ses limites s’appliquent à de nombreuses industries et entreprises. Il est donc nécessaire d’explorer d’autres horizons pour faire de l’IA un « game changer », pour cela, il faudra également se pencher sur l’économie de la data et ce que nous savons sur l’IA générative.

À LIRE :

Le premier volet de notre série : L’intelligence artificielle est-elle soluble en entreprise ?

Le deuxième volet de notre série : Révolution de l’Intelligence Artificielle… ou simple rêve ?

Patrick Darmon est associé chez Fizz venture, cabinet de conseil en Data & IA.

Discutez en temps réel, anonymement et en privé, avec une autre personne inspirée par cet article.

Viens on en parle !
commentaires

Participer à la conversation

Laisser un commentaire