Skip to main content
HighTech

Guerre et IA, un risque de destruction aveugle ?

By 25 octobre 20235 Comments

L’utilisation de drones militaires est-elle éthique ? Que l’on soit pour ou contre, la décision d’éliminer une vie humaine ne devrait jamais être anodine, même en période de guerre. Bien que l’on s’imagine que jamais une intelligence artificielle n’a été mise aux commandes d’une machine de guerre, les inquiétudes entourant ce sujet sont loin d’être récentes

 

 

Sous la République de Rome, on accordait aux généraux le titre de « promagistrat », statut leur conférant le droit de gouverner civilement et militairement une province et uniquement celle-là.

Dans le pays, mener ses troupes en dehors de sa province était alors considéré comme un acte d’agression et un crime capital.

Les opposants politiques d’un jeune général nommé Jules César ont vu là une solution évidente. En lui offrant de gouverner la province de la Gaule cisalpine [partie de la Gaule qui couvrait l’Italie du nord, ndlr], ils espéraient satisfaire ses vastes ambitions, mais surtout l’occuper suffisamment pour qu’il ne puisse pas se présenter à des fonctions officielles.

Mais au mois de janvier de l’an 49 av. J.-C., César fit traverser à ses troupes une rivière qui servait de frontière entre la Gaule et l’Italie, déclenchant ainsi une véritable guerre civile.

Cette décision fut à l’origine de deux expressions emblématiques toujours utilisées aujourd’hui : « Le sort en est jeté » ou alea jacta est (prononcée par César lui-même) et « franchir le Rubicon ».

En gros, cela veut dire que l’on a franchi un point de non-retour.

Mais en général, les « Rubicon » au sens figuré ne sont identifiés que bien après avoir été franchis par quelqu’un.

En général, aucun grand fleuve, aucune frontière bien visible sur une carte, ne détermine ces décisions qui vont changer le cours de l’Histoire et empêcher à jamais la société de faire marche arrière.

Voilà pourquoi on spécule tant sur ce que sera le Rubicon, en matière d’intelligence artificielle (IA).

  

L’IA et les drones militaires

La technologie d’IA évolue rapidement et les tensions entre nations rivales s’intensifient. Alors, il est compréhensible que tout le monde s’intéresse à la façon dont vont se rencontrer la technologie d’IA et les technologies militaires.

 

drones_militaires_ukraine_251023

REGION DE KIEV, UKRAINE – 08 sept. 2022 : Un opérateur de drone de la division de médecine de terrain Hospitallers lance un quadrocoptère capable de rechercher des blessés sur le champ de bataille. Image : Shutterstock.

 

Car une fois qu’une nation aura décidé d’utiliser tout le potentiel de l’IA sur le champ de bataille, qu’on le veuille ou non, « le sort en sera jeté ».

Et cela s’est peut-être déjà produit.

Les drones militaires Saker Scout ont été utilisés par l’armée ukrainienne le mois dernier. Ces drones quadricoptères peuvent transporter 3 kg d’explosifs et ont une portée de 12 km.

Ils sont même capables de détruire des chars lourds à l’aide de grenades antichars RKG-3 et d’ogives RPG.

Mais leur caractéristique la plus remarquable est la suivante : pour éviter les capacités de brouillage des Russes, ces drones peuvent identifier et détruire des cibles militaires sans supervision ni confirmation humaine.

Après l’invasion de l’Ukraine par la Russie, en 2022, la Saker Company a cessé de développer des IA pour petites entreprises afin de se concentrer sur leur utilisation dans les technologies militaires. Cette société suggère que la suppression de l’intervention humaine et la prise de décisions à la vitesse de la machine pourraient tout changer pour vaincre la Russie.

Bien que les drones militaires de Saker n’aient été utilisés – paraît-il – qu’à « petite échelle », cela soulève déjà des inquiétudes sur ce que beaucoup de gens considèrent comme la violation d’une règle non écrite de l’IA, à savoir que la décision de détruire une cible devrait toujours être prise par un être humain, et non par une machine.

Bien que la peur d’un violent soulèvement de robots relève toujours de la science-fiction et soit encore loin d’être possible, ce type d’utilisation de l’IA suscite des craintes réalistes et légitimes.

La première d’entre elles, ce seraient des dommages aveugles potentiels, découlant aussi bien d’erreurs potentielles lors de l’identification des cibles, que d’une plus grande facilité pour « appuyer sur la détente ».

La décision d’éliminer une vie humaine ne devrait jamais être anodine, même en période de guerre.

Mais bien que l’on puisse penser qu’une IA aux commandes d’une machine de guerre soit une grande première dans notre Histoire, les inquiétudes entourant ce sujet sont loin d’être nouvelles.

 

« Une guerre de destruction aveugle »

« Il est à mes yeux stupéfiant, parfaitement stupéfiant, que les meilleurs d’entre nous ne retiennent pas les leçons de l’Histoire, le danger du massacre aveugle… Ils s’engageraient dans une guerre de destruction aveugle ».

Contre quelle arme, à votre avis, cette citation nous met-elle en garde ? Quand, en tant qu’espèce, aurions-nous pu éviter de créer des armes qui facilitent la destruction, au risque de déshumaniser et peut-être de mal identifier une cible ?

Réponse : lors de l’avènement des sous-marins.

La citation ci-dessus est tirée d’une lettre écrite en 1904 par l’amiral britannique John A. « Jacky » Fisher.

Les craintes de Fisher étaient clairement fondées, dans la mesure où plus de dix ans plus tard, un sous-marin allemand faisait couler le Lusitania, un paquebot britannique transportant près de 2 000 civils, dont 1 200 ne survécurent pas.

A l’époque, les Allemands ont violé des lois internationales appelées « cruiser rules », selon lesquelles il fallait avertir avant d’attaquer un navire non armé. Cela aurait exigé que les sous-marins remontent à la surface avant d’attaquer et prennent des mesures afin d’assurer la sécurité des passagers et de l’équipage.

Mais un sous-marin qui remonte à la surface est ce que la plupart des gens appelleraient un « bateau ». Ne souhaitant pas renoncer à un avantage en matière de technologie militaire, les Allemands ont fait fi des règles de la guerre navale.

On a tenté en vain pendant des décennies de ratifier des accords internationaux sur l’utilisation éthique des sous-marins en temps de guerre.

Mais l’Allemagne n’est pas sortie indemne de cet usage militaire illimité de ses sous-marins. Les 128 Américains qui étaient à bord du Lusitania ont joué un rôle déterminant, en justifiant l’entrée des Etats-Unis dans la Première guerre mondiale, ce qui a irrémédiablement inversé le cours des choses au détriment des Allemands.

Alors, quelle leçon pouvons-nous retenir de l’Amiral Fisher, face à une « guerre aveugle » potentielle ?

Comme avec les sous-marins et les torpilles… les armes nucléaires… et les drones militaires, même avant l’apprentissage automatique…

L’IA est un outil. Les outils peuvent servir d’armes. Mais ce n’est pas l’outil qui prend la décision.

 

Nous pouvons tenter de former un comité international afin de suspendre les progrès de la technologie tant que des définitions et des accords ne sont pas rédigés, mais cela n’a jamais été ainsi que de nouvelles armes ont été adoptées.

L’utilisation dénuée d’éthique de l’IA devrait entraîner des conséquences. Mais elles devraient viser ceux qui font un mauvais usage d’une technologie offrant un plus grand potentiel de construire que de détruire.

 

Et maintenant, nous aimerions bien savoir ce que vous en pensez. L’utilisation de l’IA en situation de guerre vous fait-elle peur ?

N’hésitez pas à nous donner votre opinion dans les commentaires !

 

Ray Blanco

Ray Blanco a travaillé pour l'une des sociétés de gestion de patrimoine les plus prospères des Etats-Unis (plus de 30 milliards de dollars d'actifs sous gestion). Spécialiste des nouvelles technologies et véritable passionné, il constitue le trait d’union entre innovation et expertise financière et boursière. Dans ses lettres, il aide ses lecteurs à sélectionner les meilleures opportunités de gains parmi les valeurs phares de demain. Ses analyses vous permettront de vous positionner en suivant des idées claires et concrètes.

5 commentaires

  • Avatar Z. Luchador dit :

    Abstraction faite de toute considération éthique, si l’autonomisation de vecteurs volants équipés de moyens de destruction pose aux belligérants une question de nature opérationnelle voire dans une moindre mesure tactique, il me semble que la réflexion devrait plutôt porter sur l’utilisation de l’IA aux étages tactiques et surtout stratégiques. Les états-majors ne semblent pas disposés à communiquer sur cet aspect !

  • Avatar Jean-Claude Romain dit :

    je ne suis pas sûr que les arguments plus ou moins éthiques fassent le poids devant d’éventuelles considérations d’escalades et/ou de vengeances du style « yeux pour oeil ,dents pour dent  » ,et l’IA y aidera par la volonté des humains .L’histoire se renouvellera … sous une nouvelle forme .

  • Avatar ANGLARD dit :

    Je ne pense pas que l’IA puisse amplifier la nature déjà inhumaine et les dommages collatéraux ou volontaires de la guerre
    Une IA pourrait elle décapiter un fœtus en éventrant sa mère après l’avoir violee?
    Ou bombarder Dresde ou Nagasaki en faisant des centaines de milliers de victimes civiles?

  • Avatar Faux dit :

    Je voudrai investir des actions sous evaluer a un prix pas cher

    Genre action fossillescharbon le bois
    A 12 euros lactions est 200 euros
    Pour ouvrir le contrat svp

Laisser un commentaire

FERMER
FERMER
FERMER

5 Valeurs pour doubler votre PEA

X