Retrouvez Planète Robots en version numérique sur :

L’ONU veut réglementer les “robots tueurs”

L’ONU veut réglementer les “robots tueurs”
0 0
Read Time:3 Minute, 12 Second

Le mois dernier, les membres des Nations Unies se retrouvaient à Genève jusqu’au 17 décembre 2021 afin de plancher sur une réglementation des armes létales autonomes, dits “robots tueurs”. Une minorité de pays, dont l’Inde, la Russie et les USA qui exploitent déjà ces armes, bloque toute réglementation contraignante.

Echec d’un consensus sur les armes autonomes

Scientifique iranien éliminé grâce à l’Intelligence Artificielle, premier robot chien armé d’un fusil d’assaut… 2021 marquait le deuil de l’une des principales lois d’Asimov. Les exemples récents ne manquent pas pour alimenter le débat sur les systèmes d’armes létales autonomes (SALA), dits robots tueurs. Il y a deux ans, à l’ONU, la mise en place d’un traité international interdisant l’usage des SALA était bloquée par une minorité de pays. En 2021, les membres des Nations unies se retrouvaient à nouveau à Genève du 13 au 17 décembre pour plancher sur une réglementation commune.

La Convention des Nations Unies sur certaines armes classiques a débattu de la question de l’interdiction des armes autonomes lors de sa réunion d’examen tous les cinq ans à Genève du 13 au 17 décembre 2021, mais n’est pas parvenue à un consensus sur une interdiction ou une réglementation. Établie en 1983, la convention a été régulièrement mise à jour pour restreindre certaines des armes conventionnelles. Elle a réglementé par le passé l’usage d’armes non ciblées, notamment les mines terrestres, les pièges et les armes incendiaires.

L’ONU tire la sonnette d’alarme

Les systèmes d’armes autonomes sont des robots dotés d’armes léthales qui peuvent opérer de manière indépendante. Ainsi, ils sélectionnent et attaquent des cibles sans qu’un humain n’intervienne sur ces décisions. Les militaires du monde entier investissent massivement dans la recherche et le développement d’armes autonomes. Les États-Unis à eux seuls ont budgété 18 milliards de dollars américains pour les armes autonomes entre 2016 et 2020.

Sans contrôles, le rapport de l’ONU souligne que les technologies d’armes autonomes perturbatrices pourraient déstabiliser dangereusement les stratégies nucléaires actuelles. En effet, elles pourraient “changer radicalement les perceptions de la domination stratégique” et augmenter le risque d’attaques préventives. Mais elles pourraient aussi se voir combinées avec des attaques chimiques, biologiques, radiologiques, voire les armes nucléaires elles-mêmes.

L’IA, un outil au fonctionnement parfois aberrant

Les experts notent que l’IA armée n’a même pas besoin d’être défectueuse pour produire l’effet d’emballement des armes à feu. Comme l’ont montré de nombreuses études sur les erreurs algorithmiques dans tous les secteurs, les meilleurs algorithmes – fonctionnant comme prévu – peuvent générer des résultats corrects en interne qui propagent néanmoins rapidement des erreurs terribles à travers les populations.

Ainsi, une IA conçue pour les hôpitaux de Pittsburgh a identifié l’asthme comme facteur de réduction du risque pour la pneumonie. De même, un outil d’apprentissage automatique utilisé par Amazon pour classer les candidats à un poste, attribuait systématiquement des notes négatives aux femmes ; tandis qu’une faille récente dans l’Autopilot des voitures Tesla confondait parfois la lune avec un panneau STOP. L’IA des SALA n’est pas à l’abri de tels comportements aberrants, notent les experts, pour des conséquences autrement désastreuses.

Crise de responsabilité : vers des guerres autonomes ?

De plus, les pressions du marché pourraient entraîner la création et la vente à grande échelle des SALA. Des robots tueurs bon marché, efficaces et presque impossibles à contenir lorsqu’ils circulent dans le monde entier. Les armes autonomes pourraient ainsi tomber entre les mains de personnes échappant au contrôle du gouvernement, y compris des terroristes internationaux et nationaux.

Enfin, souligne le rapport, les armes autonomes peuvent-elles rendre des comptes ? Qui est à blâmer pour un robot qui commet des crimes de guerre ? L’arme? Le soldat? L’Etat belligérant ? La société qui a fabriqué l’arme ? Les organisations non gouvernementales et les experts en droit international craignent que les armes autonomes ne conduisent à une importante crise de responsabilité.

(c) Creative commons

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %
Partagez cet article

Antoine Fabre

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *