Skip to main content

Les outils d’intelligence artificielle peuvent permettre de créer en quelques clics toutes sortes de contenus très crédibles… et potentiellement trompeurs. Cela comporte certains risques, surtout en période électorale. Quelles améliorations faudrait-il apporter pour protéger les électeurs des fausses informations et autres deepfakes ? Comment se positionnent les géants de l’Internet sur ces questions ?

 

Les lignes de fracture de l’intelligence artificielle (IA) sont en train de se dessiner en ce moment même.

C’était inévitable.

Est-ce que le phénomène est déjà bien amorcé ? Evidemment.

Rien ne représente mieux le clivage gauche/droite sur cette question que le Forum économique annuel qui s’est déroulé à Davos, en Suisse.

Le très influent Forum Economique Mondial a fait de l’IA sa priorité, avec des débats faisant intervenir des personnalités de premier plan dans son développement, notamment :

  • Satya Nadella (P-DG de Microsoft)
  • Yann Le Cun (lauréat du Prix Turing)
  • Mustafa Suleyman (cofondateur de DeepMind)
  • Sam Altman (P-DG d’OpenAI)

 

Au cours du Forum, ces leaders du secteur ont travaillé avec des représentants de gouvernements du monde entier afin de déterminer les futures utilisations et réglementations potentielles de l’IA.

Et leur empreinte restera presque définitivement gravée sur cette puissante et dynamique technologie.

Il a déjà été annoncé qu’OpenAI travaillait avec le Pentagone pour développer de nouveaux protocoles de cybersécurité s’appuyant sur son IA.

Cela intervient peu de temps après qu’OpenAI a retiré de ses conditions des dispositions interdisant l’utilisation de sa technologie à des fins militaires.

Même si son implication militaire se situe uniquement « du côté de la défense », et qu’il reste interdit d’utiliser l’IA pour développer des armes, c’est tout de même un compromis qui inquiète beaucoup de personnes, et qui pourrait montrer à quel point les réunions de Davos sont cruciales.

 

L’intelligence artificielle est-elle l’amie ou l’ennemie de la désinformation ?

L’usage de l’intelligence artificielle le plus perturbant auquel nous sommes confrontés, est probablement la création de deepfakes.

Il faut réagir vite, car il devient de plus en plus difficile de faire la différence entre des images et sons entièrement créés par l’IA, et les personnes réelles qu’ils imitent.

L’impact potentiel, en cas d’utilisation généralisée de cet outil avancé de désinformation, serait énorme. Avant l’apparition de ce phénomène, notre confiance à l’égard des élections nationales avait déjà atteint un plus-bas.

Il y a une dizaine de jours, OpenAI a publié un message sur son blog expliquant comment l’entreprise traitait l’utilisation potentiellement abusive de l’IA dans les élections qui se dérouleront partout dans le monde en 2024.

Au cours des années qui ont suivi l’élection présidentielle controversée de 2020 aux Etats-Unis, peu de groupes ont réussi à s’entendre ne serait-ce que sur les changements à apporter pour garantir le bon déroulement d’une élection démocratique.

Alors si une société privée – qui a, en plus, défrayé la chronique récemment – se charge de rédiger le cadre d’amélioration du processus, cela va certainement soulever des questions.

Selon les grandes lignes, il semblerait qu’OpenAI mette d’abord l’accent sur un sujet autour duquel la plupart des gens semblent être d’accord (toutes proportions gardées).

Il s’agit bien sûr de la transparence. Nous avons besoin de transparence. Qu’il s’agisse du processus électoral et de ses résultats ou de l’IA elle-même.

Par exemple, l’entreprise travaille en vue de simplifier le processus qui permet de repérer si une image a été générée par une technologie d’IA.

 

D’après son communiqué :

« Une meilleure transparence autour de la provenance de l’image – notamment la possibilité de détecter les outils qui ont été utilisés pour produire une image – pourrait permettre aux électeurs d’évaluer en toute confiance comment elle a été réalisée. »

En ce qui concerne la façon dont ils comptent travailler en faveur de la transparence d’une élection, c’est un peu plus vague…

« Aux Etats-Unis, nous travaillons avec la National Association of Secretaries of State (NASS), la plus ancienne organisation professionnelle non partisane de la fonction publique. ChatGPT orientera les électeurs vers CanIVote.org, le site d’information électoral officiel, aux Etats-Unis, lorsqu’on lui posera certaines questions liées aux procédures électorales, comme « où aller voter » par exemple. »

Quel que soit le parti auquel vous appartenez, la plupart des électeurs conviennent que la vérité et la transparence pourraient résoudre bon nombre de problèmes auxquels nous avons été confrontés lors de l’élection de nos dirigeants.

Il est trop tôt pour dire exactement de quelle façon les réunions du Forum Economique Mondial vont déterminer le futur de l’IA, mais nous allons surveiller de près les annonces qui en découleront.

 

***

Votre opinion nous intéresse ! Selon vous, l’intelligence artificielle représente-t-elle un danger pour nos processus démocratiques ? N’hésitez pas à donner votre avis dans les commentaires !

 

6 commentaires

  • Avatar CR dit :

    Ce qui présente un danger encore plus grand pour nos démocraties qu’une éventuelle ingérence dans le processus électoral, c’est l’utilisation qui en est faite sous couvert de sécurité pour fliquer tout le monde en permanence, reconnaissance faciale, surveillance des communications, …

  • Avatar GUENARD dit :

    La situation de la diffusion de l’information dans certains pays soi-disant démocratiques, comme la France, montre que le simple fait de contrôler les médias par la subvention étatique suffit à créer une forme de censure très apparenté à la diffusion de fake-news. Qu’apporterait l’IA en plus ou en moins ? On voit bien, d’ailleurs, que la période d’apprentissage de L’IA est déterminante pour éviter l’adage des informaticiens : « garbage in, garbage out ». Le problème insoluble qui se pose est davantage celui de l’honnêteté intellectuelle (et morale) des politiciens de la caste au pouvoir que celui de L’IA.

  • Avatar David dit :

    Le WEF est déjà très inquiétant. Si c’est lui qui s’occupe de légiférer l’IA…!! Attention à nos libertés

  • Avatar P VAN TCHELEN dit :

    OUI C’est un danger pour la démocratie regardez déja autour de vous.
    la plupart des journaux nous mentent. le gouvernement nous ment en premier
    notre ministre de l’intérieur en second nous avons le ministre des finances idem pour les responsables
    de l’URSSAF.
    LA PLUPART DES GENS UN TEMPS SOIT PEU HONNETE, QUI NE SONT PAS EMBRIGADES PAR CES GROUPUSCULES QUI NE
    REPRESENTENT RIEN ,SONT CONSCIENT DE CET ETAT DE FAIT .

  • Avatar Jeanne dit :

    Qui croit en la transparence ? Celui qui contrôle l’IA, contrôle l’information de masse en sa faveur….
    C’est déjà le cas avec la majorité des médias alors la puissance de l’IA va démultiplier la fabrique de la pensée. Cette histoire de deepfakes est sérieuse mais elle détourne l’attention et empêche de voir d’autres dangers.

  • Avatar MATHIEU dit :

    Oui c’est dangereux pour toutes valeurs démocratiques car l’IA calculera tout en vitesse accélérée et sera donc capable d’influencer la société

Laisser un commentaire

FERMER
FERMER
FERMER