Alors que l’année 2025 touche à sa fin, la facture du boom de l’intelligence artificielle est officiellement arrivée à échéance. Alors que les feuilles de route des entreprises restent encombrées de projets pilotes génératifs, l’écart entre « magie » et « marge » dans la génération de revenus de l’IA se creuse.
Des données récentes dressent un tableau sombre de cet « écart de retour sur investissement ». Selon une étude du MIT de décembre 2025, près de 95 % des projets d’IA d’entreprise ne parviennent actuellement pas à générer des retours mesurables. De même, Forrester rapporte que seulement 15 % des dirigeants ont constaté une amélioration de leurs marges bénéficiaires de leurs investissements en IA au cours de la dernière année.
Le silence inconfortable qui règne dans les salles de réunion ne porte plus sur le fonctionnement de la technologie, mais plutôt sur la raison pour laquelle elle n’est pas payante.
Passer d’une démo prometteuse à un moteur générateur de revenus nécessite plus que de simples données propres et de bons modèles ; cela nécessite un changement fondamental de stratégie, un changement qui comble le fossé entre l’ambition des dirigeants et la réalité de l’ingénierie.
Pour surmonter cette fracture, nous nous tournons vers Vladyslav Tchekryjovdirecteur de la science des données et de l’IA chez AUTODOC. Opérant sur 27 marchés européens distincts, Chekryzhov se situe à l’intersection rare de la propriété exécutive des produits et de l’architecture système pratique. Contrairement aux futuristes théoriciens qui font souvent la une des journaux, son mandat est ancré dans la réalité aux enjeux élevés du commerce électronique majeur : fournir des systèmes de production qui influencent directement les prix, la fidélisation et la fidélité des clients.
Il représente une discipline que nous pourrions appeler le « réalisme des revenus » : la compréhension qu’un modèle d’IA n’a de valeur que dans la mesure où il est capable de survivre dans la nature et d’avoir un impact commercial mesurable.
Voici cinq pivots stratégiques nécessaires pour transformer le battage médiatique de l’IA en réalité P&L.
Le « filtre utilitaire » : une priorisation impitoyable
Le premier piège dans lequel tombent de nombreuses organisations est celui de la « solution à la recherche d’un problème ». La barrière à l’entrée de l’IA générative étant plus faible que jamais, la tentation de créer des fonctionnalités « intéressantes » est forte. Cependant, la génération de revenus nécessite un refus discipliné de suivre des tendances qui ne font pas bouger les choses.
Pour Chekryzhov, la distinction entre une fonctionnalité et un moteur commercial est frappante. Cela ne commence pas par le code, mais par la modélisation financière.
« En fin de compte, donner la priorité à toute initiative d’IA/ML revient à la discipline de construire des hypothèses. Ne vous fiez pas à l’intuition ; modélisez d’abord l’impact – gagnez de l’argent dans Excel avant même que le code ne soit écrit. »
Il classe les initiatives en trois niveaux : optimiser l’économie actuelle (niveau 1), débloquer l’économie de nouveaux produits (niveau 2) et remodeler l’écosystème commercial (niveau 3). La zone de danger, note-t-il, est généralement le niveau 3, où les récits stratégiques masquent souvent des hypothèses faibles.
« Le mode d’échec courant est la construction d’un jouet coûteux… J’impose un test au fournisseur : paierions-nous pour cette capacité aux tarifs du fournisseur (par exemple, OpenAI) tout en maintenant nos marges ? S’il n’existe pas de chemin défendable vers une croissance des revenus ou un changement radical dans les dépenses d’exploitation, ce n’est qu’une expérience coûteuse. «
Équilibrer l’algorithme : tarification et rétention
Dans le commerce électronique, l’IA est souvent chargée de l’optimisation. Mais l’optimisation est rarement une somme nulle. Un modèle conçu pour maximiser la marge immédiate (Prix dynamique) pourrait par inadvertance punir la fidélité à long terme (Rétention).
Chekryzhov soutient que gérer cette tension ne consiste pas à trouver l’architecture de réseau neuronal parfaite, mais à établir les limites organisationnelles appropriées.
« Le minimum qui fonctionne étonnamment bien est la culture, pas l’architecture : une expérimentation rigoureuse avec les garde-fous appropriés. Chaque changement de prix ou de promotion est mesuré non seulement sur l’efficacité immédiate, mais aussi sur les « effets de halo » : comment il modifie le comportement entre les cohortes et les segments… Nous définissons d’avance quelles mesures sont autorisées à évoluer, dans quelle direction et de combien. Si une marge gagnante s’accompagne d’une rétention ou d’une CLV en dehors de ces limites, ce n’est pas une victoire. «
Pour mettre en œuvre cela sur le plan technique, il suggère d’éviter les monolithes de type « boîte noire » en faveur d’une approche à plusieurs niveaux qui donne le contrôle aux dirigeants d’entreprise sans nécessiter une reconversion complète du modèle.
« Une façon pratique d’y parvenir est d’utiliser une cascade de modèles : un modèle de tarification propose des prix candidats, puis des modèles légers prédisent les résultats des utilisateurs et agissent comme un filtre ou un reclassement de pondération. L’avantage est le contrôle : vous pouvez ajuster la logique métier en modifiant la configuration finale plutôt que de recycler le modèle lourd à chaque fois que les priorités changent.
Le « écart de production » : là où le retour sur investissement meurt
Une preuve de concept (POC) est une expérience contrôlée ; la production est une zone de guerre. De nombreuses projections de revenus échouent parce qu’elles sous-estiment les frais d’ingénierie nécessaires au fonctionnement d’un modèle à grande échelle.
Chekryzhov prévient que l’IA introduit un type spécifique de dette technique qui manque souvent aux ingénieurs logiciels traditionnels : le non-déterminisme.
« La réponse honnête est qu’un PoC réussi ne prouve pas que vous disposez d’un produit évolutif… Le modèle n’est pas déterministe : une réexécution peut produire différents résultats. Cela fait exploser les coûts de débogage, rend les incidents plus difficiles à reproduire et élève la barre en matière de surveillance. La dette technique apparaît plus tôt dans les systèmes d’IA que dans les logiciels traditionnels, devenant une taxe sur la vitesse de développement de toute l’équipe. «
Stratégiquement, cela signifie que votre calcul de retour sur investissement doit inclure le coût de la fiabilité. Si vous budgétisez uniquement le développement et non la « taxe » de maintenance, vos marges s’évaporeront.
« Les meilleurs investissements que j’ai vus ici ne sont pas exotiques… Je prône une hygiène de base (Culture MLOps et processus continu de conception de systèmes ML)les pièces qui ne se démodent pas : qualité mesurable, débogabilité et réversibilité. »
Isoler le signal : le défi de l’attribution
La question stratégique la plus complexe à laquelle il faut répondre est peut-être : « L’IA a-t-elle fait cela ? Dans un écosystème complexe impliquant des dizaines de marchés, une saisonnalité et des dépenses marketing, attribuer des revenus à des sources spécifiques est statistiquement compliqué. Pourtant, sans attribution claire, la poursuite des investissements est impossible à justifier auprès des dirigeants.
Tchekryjov aborde cette question avec la rigueur d’un scientifique, rejetant l’idée selon laquelle les modèles complexes génèrent la confiance. Au lieu de cela, il s’appuie sur des hypothèses contrefactuelles, prouvant ce qui se serait passé en l’absence de l’IA.
« La seule façon d’affirmer que l’IA a conduit X avec un visage impassible est de s’appuyer sur un contrefactuel crédible. Je m’appuie sur deux familles de preuves : des expériences randomisées (A/B) lorsque cela est possible, et des méthodes quasi-expérimentales dans le cas contraire. Si la décision compte au-delà de la fenêtre de test, nous ajoutons une résistance globale à la configuration A/B : un groupe de contrôle persistant qui ne voit jamais la fonctionnalité.
« Pour les dirigeants, le message est cohérent : la confiance ne vient pas d’un modèle complexe. Elle vient d’une approche transparente et d’une conception de mesure que vous pouvez expliquer clairement. »
Rails de sécurité : faire confiance à la machine
Enfin, l’automatisation des décisions en matière de revenus, telles que les enchères ou la tarification, comporte des risques inhérents. Un chatbot « hallucinant », c’est gênant ; un algorithme de tarification qui vend des stocks à 90 % de perte est catastrophique.
La mise en œuvre stratégique nécessite une philosophie « humaine dans la boucle » qui évolue vers une gouvernance « humaine dans la boucle ». Chekryzhov conseille d’évaluer le coût de l’erreur avant d’accorder l’autonomie.
« Je commence par la conception de systèmes ML/IA, et un artefact compte le plus ici : le coût de l’erreur. Si les inconvénients sont élevés et difficiles à inverser, je ne recherche pas une autonomie totale… Lorsque le profil de risque est acceptable, j’aime un « curseur d’autonomie ». Les premières itérations sont validées par l’homme. À mesure que vous accumulez des données et de la confiance, vous déplacez le curseur vers l’automatisation par étapes contrôlées. «
Même lorsqu’un système est totalement autonome, il doit fonctionner dans des limites strictes définies par l’entreprise et non par le modèle.
« L’autonomie doit être limitée par une politique en tant que code. Le système doit avoir des contraintes explicites, des disjoncteurs et des solutions de repli sûres… Vous ne débattez pas de l’autonomie en théorie ; vous la gagnez. »
Les revenus de l’IA ont besoin d’une mise à niveau de maturité
La transition de l’expérimentation de l’IA aux revenus de l’IA n’est pas une mise à niveau technologique ; c’est une mise à niveau de maturité. Cela nécessite de s’éloigner de l’attrait de la nouveauté et d’adopter la rigueur de l’ingénierie, la complexité de l’attribution et la discipline de la priorisation.
Comme le démontre l’expérience de Chekryzhov chez AUTODOC, les entreprises qui gagneront ne sont pas nécessairement celles qui disposent des modèles les plus avancés, mais celles qui proposent les ponts les plus solides entre la science des données et la stratégie commerciale.





