Le 10 octobre 2025, le les marchés des cryptomonnaies ont connu une dislocation sismique. En quelques minutes, une cascade de liquidations a anéanti des milliards d’intérêts ouverts, laissant les algorithmes de trading standards paralysés. Il ne s’agissait pas seulement d’une baisse de prix ; c’était un échec structurel des modèles prédictifs. Les stratégies qui imprimaient de l’argent depuis des mois se sont soudainement retrouvées confrontées à un état du marché qui n’existait pas dans leurs données de formation.
Cet événement nous rappelle brutalement : dans le monde aux enjeux élevés de la finance quantitative, le recours au Machine Learning (ML) est devenu absolu, mais ses angles morts restent fatals. Des algorithmes de trading à haute fréquence (HFT) s’exécutant en nanosecondes aux oracles DeFi complexes, l’industrie est engagée dans une course aux armements pour la suprématie des données. Mais lorsqu’un « cygne noir » survient, les modèles formés sur des données historiques ne se contentent pas de sous-performer : ils s’effondrent.
Cela crée un paradoxe pour les sociétés de trading modernes : comment construire des systèmes résilients lorsque vos principaux outils sont aveugles aux risques les plus importants ?
Pour répondre à cette question, nous nous sommes assis avec Grigori Chikishevchef d’équipe et trader quantitatif chez Cerveaux quantiques. Avec plus de neuf ans d’expérience dans la création de solutions d’infrastructure pour les marchés – allant des algorithmes HFT et des modèles ML aux systèmes d’évaluation de flux basés sur des graphiques – Grigory a passé sa carrière à l’intersection de la vitesse d’exécution et de la résilience systémique. Chez Quantum Brains, il a transformé les processus de marché en architectures évolutives conçues pour résister à la volatilité qui brise les modèles standards.
Voici son point de vue sur les raisons pour lesquelles l’industrie doit aller au-delà de la « boîte noire » et comment concevoir une véritable antifragilité.
Le Zen de l’imprévisible
Lorsque la discussion porte sur l’échec des modèles de risque lors d’événements comme le récent krach d’octobre, la pandémie de COVID-19 ou la crise financière de 2008, la critique habituelle est que les modèles « n’ont pas réussi » à prédire l’événement. Grigory conteste entièrement cette prémisse. Il soutient que l’attente selon laquelle un modèle ML prédirait une singularité est mathématiquement erronée et que la solution ne réside pas dans une meilleure prédiction mais dans une meilleure acceptation.
« Je tiens tout de suite à préciser que je ne vois pas de problème avec l’existence des cygnes noirs. Ce sont, par définition, des événements impossibles à prévoir. Et nous n’y pouvons rien. Par exemple, une comète entrant en collision avec la Terre : on peut presque certainement dire que cela n’arrivera pas dans les semaines ou même les années à venir, mais personne ne sait ce qui se passe dans la partie invisible de la galaxie…
Le mot « échouer » est peut-être exagéré. Si nous savons à l’avance notre incapacité à prédire l’événement A, alors nous devrions accepter sa survenue avec le calme bouddhiste. »
Toutefois, accepter l’imprévisibilité ne signifie pas ignorer les conséquences. Grigory souligne que même si un modèle ne peut pas prédire le timing d’une crise, les experts du domaine humain doivent concevoir des systèmes qui comprennent les conséquences du pire des cas – quelque chose que les modèles purement basés sur les données oublient souvent parce que les points de données ne sont tout simplement pas là.
« Quelque part entre ces deux chiffres se trouve le point critique qui sépare un événement prévisible d’un événement imprévisible (un cygne noir). Et le défaut fondamental de tout modèle est qu’il ne peut pas calculer ce point… Nous ne pouvons nous préparer qu’au pire des cas, dont le modèle NE tient PAS compte. »
Le mythe du compromis en matière de transparence
Un débat important en finance quantitative concerne la tension entre l’IA explicable (XAI) et le profit. La sagesse dominante suggère que les modèles « Black Box » (modèles d’apprentissage profond non supervisés difficiles à interpréter) sont plus rentables parce qu’ils sont plus complexes, et que les forcer à être explicables (pour la conformité réglementaire) ralentit leur exécution et émousse leur avantage.
Grigory est en désaccord catégorique avec cette dichotomie. Pour lui, la transparence n’est pas un fardeau réglementaire ; c’est un outil de débogage.
« Je doute fortement qu’une approche non supervisée ou une approche boîte noire soit finalement plus efficace qu’une approche boîte blanche lorsqu’on la compare directement… Par conséquent, tout effort en faveur d’une « interprétabilité au niveau réglementaire » n’est que pour le mieux. Si votre nouveau-né pouvait expliquer ce qui fait mal, ce serait très pratique et aiderait clairement à son éducation. «
Il suggère que l’opacité des stratégies de trading est souvent un masque de chance plutôt que de génie – en particulier un biais de survie.
« Si vous voyez une stratégie de ML réussie dont « le fonctionnement n’est pas clair », alors l’une des deux choses suivantes est probablement vraie :
- Soit ses créateurs ont tout compris, mais préfèrent garder leurs cartes près de leur poitrine.
- Ou bien nous avons affaire à un biais de survie… Si 1 024 personnes font une chaîne de 10 prédictions binaires, précisément une d’entre elles sera absolument correcte dans chaque prédiction.
Malheureusement, les deux raisons sont parfois correctes. Alors exigez toujours une explication de votre agent IA ! »
Ingénierie Antifragilité
Si la prédiction est impossible, la seule stratégie viable est l’antifragilité – la capacité d’un système à tirer profit du désordre, un concept popularisé par Nassim Taleb. Cependant, sa mise en œuvre au niveau du matériel et de l’infrastructure est notoirement difficile. Construire un système capable de gérer 100 fois la charge normale du marché en cas de krach est souvent d’un coût prohibitif.
L’approche de Grigory en matière d’infrastructure chez Quantum Brains donne la priorité à la flexibilité plutôt qu’à la capacité de force brute.
« Vous ne pouvez pas préparer votre infrastructure à un événement de type cygne noir. Par exemple, si vous calculez la charge de pointe de votre serveur et autorisez une multiplication par 100, vous dépensez de l’argent sur des ressources inutilisées presque 100 % du temps… Mais vous pouvez préparer un système flexible pour réduire les coûts des ressources. Par exemple, en arrêtant simplement une configuration de trading après l’autre. À quoi ça sert de toute façon si tout va en enfer ? »
Cette flexibilité permet à une entreprise de survivre au choc initial. Mais en réalité profit sortir de la dislocation – pour être véritablement antifragile – nécessite un changement de mentalité. Cela nécessite de reconnaître que lorsque les algorithmes des autres échouent, le marché n’est plus efficace.
« Je le répète, nous parlons d’une situation que nos modèles n’avaient pas prévue… Cette formulation contient également une bonne nouvelle : nous pouvons supposer que d’autres acteurs du marché vivent le même scénario ‘difficile’. Le 10 octobre, les cryptomonnaies ont connu un choc important, provoquant la liquidation de nombreuses positions. Certains acteurs ont littéralement quitté le marché : soit ils ont choisi la deuxième option (shutdown), soit n’ont tout simplement pas eu le temps de le faire (RIP).
C’était le bon moment pour exploiter des inefficacités ou saisir des opportunités qui seraient habituellement fermées… Dans un sens, c’est aussi la manière de Taleb : pour éviter d’être une dinde, il faut simplement ne pas l’être.
L’élément humain dans un jeu à somme nulle
Alors que l’IA continue de dominer l’exécution des transactions, beaucoup s’interrogent sur le rôle futur du trader quantitatif humain. Si les machines gèrent le flux, le risque et l’exécution, l’humain est-il obsolète ?
Grigory estime que la nature même du marché protège l’élément humain : il s’agit d’un jeu à somme nulle animé par le désir de gagner, une émotion que les algorithmes ne possèdent pas. Même si l’IA peut être efficace, elle n’a pas la volonté de « battre » le marché qui alimente la véritable innovation.
« Le trading diffère de beaucoup d’autres domaines dans lesquels l’IA se développe activement, car il s’agit d’un jeu à somme nulle… Imaginons un extrême : il n’y a plus de participants vivants sur le marché… Y a-t-il une place pour les humains ici ? À mon avis, il n’y en a pas.
Mais heureusement… dans le monde réel, il y aura toujours des participants vivants… Un autre facteur humain est l’excès de confiance. L’idée : « Je suis humain, je serai plus inventif et original que l’IA » ne nous quittera jamais de l’esprit. »
En fin de compte, l’avenir du trading quantitatif ne consiste pas à remplacer les humains par l’IA, mais à ce que les humains utilisent l’IA pour rivaliser avec d’autres humains. L’algorithme est l’arme, pas le soldat.
« Comme je l’ai dit, c’est un jeu à somme nulle. Mais un algorithme n’a aucun intérêt à gagner de l’argent dans de telles conditions. Seul l’homo sapiens aura toujours l’envie de ‘battre’ les autres. »





