Deepfakes, fake news, fuite de nos données personnelles… Bien qu’elle représente une formidable avancée technologique, l’intelligence artificielle peut également se révéler nuisible si elle est mise entre de mauvaises mains. Il faut réguler son utilisation, c’est certain. Et ce ne sont pas ses adversaires qui le disent, mais bien les entrepreneurs qui ont contribué à sa création…
Essentiel. Tyrannique. Vain. Voilà les adjectifs qui ressortent le plus souvent quand on parle de réglementer l’intelligence artificielle (IA).
Les pas de géant accomplis récemment par cette technologie pourraient bouleverser le marché de l’emploi, la cybersécurité et même notre sécurité personnelle.
Mais pour beaucoup, la réglementer s’apparenterait à tenter de brider cette technologie et son énorme potentiel. D’autres estiment que sur le plan géopolitique ce serait contreproductif pour les Etats-Unis, dans le sens où une régulation américaine désavantagerait les Etats-Unis dans leurs démarches de développement de l’IA par rapport à d’autres pays, comme la Chine et la Russie.
Et comme d’habitude, les législateurs américains ont mis du temps à se saisir de cette question.
ChatGPT – lancé auprès du grand public en novembre 2022 – a déjà fait l’objet d’une mise à jour majeure. Et des chatbots concurrents comme Bard de Google, et Bing, le moteur de recherche amélioré de Microsoft, sont déjà entrés dans la partie.
Mais le Congrès américain commence tout juste à travailler sur une potentielle supervision de l’IA.
Ce qui surprend, c’est l’identité des personnes qui ont pris la tête du mouvement en faveur de l’instauration de règles strictes et de restrictions sur le développement de l’IA.
Sam Altman, le P-DG d’OpenAI – la société qui a créé ChatGPT – a rencontré plusieurs membres du Congrès à la mi-mai, pour insister sur la nécessité de contrôler une technologie aussi puissante. Il paraît qu’il aurait demandé l’instauration de garde-fous dans le cadre de son développement.
Altman a déclaré que les programmes d’IA se situant « au-dessus d’une certaine échelle de capacités » devraient être soumis à des licences.
Mais qui délivrerait ces licences ? Une nouvelle agence fédérale, bien entendu, qui serait également chargée de fixer les critères exigeant une licence et, aurait le droit de révoquer celle-ci.
Le sénateur Richard Blumenthal, qui présidait cette commission, a fait valoir la nécessité d’une supervision, en soulignant particulièrement que l’IA pourrait perturber les élections.
Voici ce qu’il a déclaré au cours de l’audition :
« Trop souvent, nous avons vu ce qu’il se passait lorsque les technologies allaient plus vite que la réglementation, une exploitation débridée des données personnelles, une prolifération de la désinformation. Ce n’est pas l’avenir que nous souhaitons. »
Sauf que le sénateur Blumenthal n’a jamais dit cela. En fait, il ne l’a même pas écrit. Le véritable sénateur a commenté ainsi l’enregistrement de ce qui ressemblait à sa voix :
« Si vous aviez écouté de chez vous, vous auriez pu penser que cette voix et les mots prononcés étaient les miens. Mais en fait, ce n’était pas ma voix, ce n’étaient pas mes mots, et la voix de l’enregistrement provenait d’un logiciel d’IA qui clone les voix, et qui a été entraîné avec les discours que j’ai [déjà] prononcés dans l’hémicycle. »
Contre la réglementation
Malgré tout, au cours de cette audition, beaucoup de voix se sont élevées contre la réglementation.
Christina Montgomery, directrice de la protection de la vie privée (Chief Privacy & Trust Officer) chez IBM, s’est opposée à la création d’une nouvelle agence fédérale qui contrôlerait le développement de l’intelligence artificielle.
Le sénateur républicain Josh Hawley a déclaré ceci :
« On a vu comment les agences fonctionnaient, avec ce gouvernement, elles se font généralement capter par les intérêts qu’elles sont censées réglementer. »
L’audition a énormément attiré l’attention d’autres personnalités clés de l’IA, la Computer & Communications Industry Association – dont Google et Amazon font partie – ayant prévenu qu’il ne fallait pas « ajouter une nouvelle couche de bureaucratie. »
Ces mots d’Eric Schmidt – ex-P-DG de Google – lors d’une interview accordée récemment, ont été cités :
« Toute personne qui propose une commission d’examen gouvernementale devant délivrer des autorisations parle d’un organisme de réglementation qui comporterait énormément de règles que nous ne savons pas encore rédiger. »
Schmidt plaide en faveur d’une gestion des menaces spécifiques que pose l’IA, plutôt que d’une réglementation de son développement.
Globalement, ce qui inquiète, c’est l’inefficacité d’une réglementation potentielle. Toutefois, le fait que la réglementation soit trop efficace inquiète tout autant. Surtout si l’on prend du retard sur les concurrents étrangers.
Même Altman reconnaît que freiner le développement de l’IA devrait faire l’objet d’un effort mondial, comme avec l’Agence Internationale de l’Energie Atomique, qui gère la sécurité nucléaire.
Considérant ce démarrage plutôt tardif – et le rythme généralement lent – du Congrès, la crainte que de nouvelles lois freinent les progrès de l’IA est probablement infondée.
Jack Clark, cofondateur d’Anthropic [entreprise spécialisée dans l’IA, ndlr], apporte cet éclairage :
« La difficulté dans le domaine de l’intelligence artificielle, c’est que les capacités de ces systèmes évoluent plus vite que le temps à notre disposition, en tant que chercheurs, pour les évaluer. »
Pour l’instant, le gouvernement Biden a déclaré que les lois existantes seraient appliquées à tous les aspects de l’IA, qu’il s’agisse des prêts, de l’emploi, de la fraude et de la concurrence.
Reste à savoir si les avantages d’une réglementation globale de l’IA surpasseront ses inconvénients…
A un avenir radieux !
Ray Blanco