Skip to main content
HighTechIntelligence artificielle

La prochaine crise financière viendra de… l’IA !

By 7 février 20242 Comments

Incroyable mais vrai, Gary Gensler, le président de la SEC (Securities and Exchange Commission) a mis en pause sa croisade contre les cryptomonnaies pour s’attaquer à une autre technologie émergente… l’intelligence artificielle. Pour lui, c’est de cette technologie que viendra la prochaine crise majeure. Le point.

L’intelligence artificielle (IA) inquiète Gary Gensler, le président de la SEC – plus particulièrement l’idée d’une généralisation de l’utilisation de l’IA à Wall Street. Il est même allé jusqu’à déclarer que l’IA pourrait provoquer la prochaine crise financière.

En conséquence, la SEC a commencé à réclamer des informations et des données aux principales sociétés d’investissement afin d’élaborer une réglementation sur l’utilisation de l’IA à Wall Street.

Cette démarche s’inscrit dans la proposition de juillet de la SEC visant à fixer de nouvelles règles relatives à l’analyse des données et aux systèmes d’IA. Le but de cette proposition est de gérer de potentiels conflits d’intérêts censés survenir en utilisant des méthodes avancées d’analyse prédictive des données telles que l’IA.

Bien qu’il soit simplement demandé aux sociétés d’examiner toute conclusion tirée d’une analyse fondée sur l’IA pour repérer d’éventuels biais, Gensler a également exprimé des inquiétudes plus frappantes.

En début d’année, il est allé jusqu’à déclarer [qu’avec le recul,] les futurs observateurs jugeraient que « la crise de 2027 a été provoquée parce que tout reposait sur une seule base, ce que l’on appelle [la] base d’IA générative, sur laquelle une poignée d’applications fintech sont construites ».

Le fait de nous appuyer sur quelques fournisseurs d’IA spécifiques pourrait « nous précipiter par inadvertance dans un gouffre ».

Le président la SEC s’inquiète également de quelque chose qu’il qualifie « d’IA washing », des sociétés qui exagèrent le pouvoir des systèmes d’IA en les brandissant dans des supports marketing mensongers.

Ainsi, la SEC a bien l’intention d’élargir le champ de la réglementation de l’IA, mais cela ne veut pas dire que les sociétés à qui elle pose des questions sont soupçonnées de mal agir.

L’équilibre du pouvoir

Comme je l’ai déjà indiqué, Gary Gensler s’est forgé la réputation de montrer ses muscles au point de dépasser les bornes, surtout dans la façon dont il a géré la réglementation des cryptomonnaies.

On peut facilement penser qu’il fait la même chose avec l’IA. Mais il est tout de même important de prendre en compte les arguments de la SEC, surtout considérant le pouvoir de cette nouvelle technologie transformatrice.

L’utilisation de l’IA se généralise bel et bien au sein des principales sociétés d’investissement.

BlackRock et JP Morgan Chase ont leurs propres groupes de recherche dans le domaine de l’IA, et des représentants de Fidelity et de Goldman Sachs ont fait des déclarations reconnaissant l’utilisation potentielle de l’IA dans la gestion d’actifs.

Selon Mike Mayo, analyste chez Wells Fargo : « Si vous êtes une banque et que vous n’avez aucune stratégie d’IA, alors vous n’avez aucune stratégie. »

Bien qu’une réglementation excessive et une atteinte au libre marché représentent une préoccupation majeure, inutile d’avoir bonne mémoire pour se souvenir des dégâts qui peuvent être commis quand Wall Street applique une même stratégie d’investissement dénuée de vision à long terme…

La SEC semble plus s’intéresser à la répartition du risque qu’à l’instauration de limites totales sur l’utilisation de systèmes d’IA potentiellement transformateurs.

Ce « gouffre » dans lequel Gary Gensler a peur que l’on tombe par inadvertance, c’est ce qu’il décrit comme une « monoculture » qui se mettrait en place.

Vu toutes les ressources consacrées à la création des grands modèles de langage (LLM), il est probable que seuls un petit nombre d’entre eux ressortira de l’engouement initial pour l’IA. Lorsque cela arrivera, toutes les futures applications d’IA seront bâties à partir du même LLM qui sera probablement contrôlé par un géant des technologies tel que Google ou Microsoft.

Les entreprises, grandes et petites, seraient alors forcées d’utiliser les mêmes ensembles de données, sous peine de se faire distancer inexorablement en n’utilisant pas l’IA.

Il n’est pas compliqué d’imaginer les conséquences potentielles, si la totalité des acteurs de Wall Street élaboraient leurs stratégies d’investissement à partir d’informations identiques fournies par Google.

Bien qu’il soit résolument inquiétant de constater que Gensler s’en prend à l’IA juste après sa campagne ratée contre les cryptomonnaies, la répartition des risques potentiels (tels que ceux dont on ne s’est pas encore remis, après 2008) est résolument une préoccupation compréhensible.

2 commentaires

  • Avatar jean-louis Mazières dit :

    L’IA n’est qu’une production de l’intelligence humaine. Bref, elle est très limitée.
    AI is only a production of human intelligence. In short, it is very limited.

  • Avatar Yao Philippe Komlagan dit :

    C’est une vérité irréfutable… Je suis entièrement d’accord avec vous.
    Peut être que cette peur ou du moins cette retissance vis à vis de l’IA se dissipera quand les limites de l’Intelligence Artificielle seront perceptibles de manière flagrante !

Laisser un commentaire

FERMER
FERMER
FERMER