Skip to main content
GAFAM & TechHighTechInfrastructures & hardwareInternet & communications

Elon Musk a peur du monstre… qu’il a lui-même créé

By 12 avril 2023mai 15th, 2023No Comments

L’émerveillement suscité par les agents conversationnels comme ChatGPT laisse peu à peu place à l’inquiétude. Certains chercheurs en intelligence artificielle (IA) ont admis récemment que l’avancée fulgurante de cette technologie, si elle n’est pas maîtrisée, pourrait être dangereuse pour l’humanité. Une pause de six mois a même été évoquée dans le développement de ces robots.

 

Bien que l’intelligence artificielle (IA) soit l’une des nouvelles technologies les plus exaltantes développées actuellement, elle est peut-être la plus controversée de notre époque. Si le potentiel de l’IA est énorme pour les biotechnologies et les industries créatives par exemple, le moment est peut-être venu d’entamer une réflexion autour de la sécurité liée à ces systèmes.

 

De la fascination à l’appréhension

La peur que l’intelligence artificielle puisse bouleverser la façon dont nous vivons est palpable ces derniers temps, surtout depuis le lancement de nouvelles IA génératives, entraînées sur de vastes modèles de langage.

Et la peur qu’inspire l’IA n’est pas un concept nouveau.

Si l’on remonte à 2014, Elon Musk avait comparé la création de l’intelligence artificielle au fait de « convoquer le diable », la qualifiant de « potentiellement plus dangereuse que les armes nucléaires ». Musk pense qu’il existe un risque que nous soyons remplacés par l’IA, donc par le diable, selon ses termes.

Bien entendu, ce n’est qu’un stéréotype de science-fiction qui remonte au moins à Frankenstein, le livre de Mary Shelley. C’est une vision d’horreur sur le danger que pose la technologie et le fait de vouloir en savoir trop.

Dans Terminator, film sorti en 1984, une IA malveillante – qui déclenchera dans le futur un holocauste nucléaire – envoie un robot incarné par Arnold Schwarzenegger remonter le temps afin de tuer la future mère d’un résistant.

Dans Transcendance, film sorti en 2014, c’est le développeur d’une IA (incarné par Johnny Depp) dont la conscience est transférée dans un ordinateur quantique, qui menace de prendre le contrôle du monde, ce qui mène à la destruction de l’économie mondiale.

Il est ironique de constater qu’un entrepreneur hyperactif qui a passé de nombreuses années à tenter de déployer l’IA au service de la technologie de conduite autonome ait ce sentiment. Mais en 2015, la peur de Musk l’a conduit à cofonder OpenAI, entité sans but lucratif initialement dédiée au développement d’une intelligence artificielle ouverte et bienveillante pour les humains. Il affirme également avoir fait une donation de 100 M$ pour que ce projet décolle.

OpenAI a fait énormément de choses depuis 2015, et captive l’imaginaire du monde depuis le lancement viral de ChatGPT-3, l’an dernier.

Le mois dernier, son successeur encore plus puissant, ChatGPT-4, a fait la Une des actualités, dans le monde entier, avec des comparaisons entre les 100 000 milliards de paramètres de cette nouvelle version et les 175 milliards de ChatGPT-3.

Le rythme effréné auquel s’améliorent les technologies d’IA en ce moment est l’une des principales sources d’inquiétude de ses détracteurs tels qu’Elon Musk.

Afin d’alerter sur la capacité stupéfiante de ChatGPT-4 à imiter les communications en langage humain, une lettre ouverte a été rédigée par les membres du Future of Life Institute. Intitulée « Pause Giant AI Experiments : An Open Letter » [ndlr : Faites une pause sur les gigantesques expérimentations d’IA : lettre ouverte], elle appelle à faire une pause d’au moins six mois avant la création d’un système encore plus puissant.

Parmi les signataires figurent des milliers de scientifiques, experts en technologies et chercheurs, notamment l’ex-candidat à l’élection présidentielle américaine Andrew Yang, le fondateur d’Apple Steve Wozniak… et Elon Musk en personne.

Ils y expriment leur inquiétude sur le fait que l’IA pourrait « inonder nos canaux d’information de propagande et de mensonges. » Personnellement, j’estime que sur ce plan, les canaux d’information gérés par les humains font déjà de l’excellent travail.

Mais une grande partie des inquiétudes formulées dans cette lettre concerne le fait que l’IA pourrait automatiser et supprimer des millions d’emplois.

Quelles que soient les arrière-pensées des leaders technologiques qui ont signé cette lettre, cet appel à faire une pause a inquiété bon nombre de personnes.

 

 

Une amélioration exponentielle

Indépendamment de cette lettre ouverte, les progrès accomplis par ChatGPT et OpenAI sont carrément impressionnants.

 

IA_Elon_Musk_monstre_OpenAI

 

Toutefois, ces technologies ne sont pas « véritablement » intelligentes pour l’instant…

Les IA telles que le chatbot d’OpenAI ne sont pas semblables aux technologies logicielles traditionnelles. Elles sont construites sur des modèles appelés « transformers ». Les transformers sont des réseaux de neurones simulés numériquement, des réseaux neuronaux conçus pour imiter la structure d’un cerveau biologique.

Ils « apprennent » en étant entraînés sur de vastes ensembles de données afin de détecter les relations entre les différents fragments de données. Dans le cas de ChatGPT et d’autres chatbots munis de l’IA, ces fragments de données sont des mots, ou des parties de mot, appelés « tokens ».

Est-ce que cela rend l’IA véritablement intelligente ? Pas vraiment.

ChatGPT ne « sait » rien. Il observe juste le texte dont il dispose jusqu’à présent, et détermine quel devrait être le mot suivant, puis renouvelle ce processus jusqu’à ce qu’il ait accompli sa tâche.

Pour ChatGPT, ces mots n’ont pas vraiment de sens, ce sont juste des « tokens », une série de « un » et de « zéro » sur lesquels réaliser une opération mathématique en fonction de leur relation réciproque, apprise en analysant des milliers de milliards d’autres chaînes binaires.

Mais les résultats sont tout de même déconcertants aux yeux de certains, et très difficiles à corriger !

ChatGPT ne s’apparente pas à du code informatique traditionnel que l’on peut réviser, diagnostiquer et corriger si nécessaire. On ne sait pas vraiment comment ces différents neurones, dans le réseau, fonctionnent ensemble pour générer un résultat. C’est une boîte noire.

Voilà pourquoi les IA comme ChatGPT ne donnent pas toujours la réponse correcte. Pas plus tard que le mois dernier, l’Université de Stanford a dû retirer une version ouverte de son propre chatbot d’IA générative, affirmant qu’il avait des « hallucinations » et disséminait de fausses informations et des contenus préjudiciables.

Alors les sociétés qui travaillent sur ces technologies ont énormément de pain sur la planche.

Et je pense que d’autres lettres seront publiées pour que les leaders des Big Techs ralentissent le rythme de l’innovation.

 

J’aimerais beaucoup avoir votre avis sur la question. Etes-vous persuadé que l’IA est un danger ?

Si vous n’êtes pas inquiet, pourquoi ? Est-ce que votre entreprise engage des experts en IA ?

Envoyez-moi un mail à la-redaction-tech@publications-agora.fr pour me le dire.

 

Pour un avenir radieux !

Ray Blanco

Aucun commentaire

Laisser un commentaire

FERMER
FERMER
FERMER