Systèmes d'armes autonomes mortels: une occasion pour le Canada d'affirmer son leadership moral?

Publié le lundi 29 février 2016

Auteur : Wendell Wallach

Wendell Wallach

Ancien chaire de recherche Fulbright sur la science et la société de l'ISSP
Chercheur au Centre Interdisciplinaire de Bioéthique de l'Université de Yale

En avril, les Nations Unies se réuniront à Génève pour la troisième année consécutive pour l’appel à l’interdiction des systèmes d'armes létaux autonomes (SALA). Cette réunion et ses activités de suivi offrent une occasion unique au Canada et à son nouveau gouvernement d’affirmer leur leadership moral à l’échelle internationale. Bien qu’il y ait un consensus émergent selon lequel les avantages à court terme des systèmes d'armes létaux autonomes seront éclipsés par des impacts nuisibles à long terme, il sera difficile de conclure un accord de maîtrise des armements afin de restreindre leur utilisation. Ainsi, même les états favorables à une interdiction ont refusé de s’engager. Ce qu’il faut, c’est un ou deux grands pays qui aient le courage d’aller de l’avant et d’affirmer qu’une interdiction est une bonne idée, en supposant qu’un consensus peut être obtenu sur les moyens d’assurer son efficacité. Compte tenu du leadership du Canada dans l’élaboration des moyens d’interdiction des mines terrestres, connu sous le nom du Traité d’Ottawa, cela pourrait être considéré comme un rôle naturel du nouveau gouvernement libéral, et une déclaration que le Canada est prêt à devenir un leader moral sur la scène mondiale. Alors que le Canada a fait un investissement considérable dans l’interdiction des mines terrestres, peu ou pas d’investissement sérait nécessaire à présent pour interdire les SALA. La réunion d’avril à Génève sera organisée par la Convention sur certaines armes classiques (CCAC). Actuellement, 115 états font partis de la convention et cinq autres états l'ont signé mais n’ont pas ratifié les trois protocoles qui désignent les interdictions d’utilisation de systèmes d’armes spécifiques. Les systèmes d'armes létaux autonomes, aussi connu comme des robots tueurs, sont une référence à des armes robotiques dans un futur relativement proche qui à la fois sélectionnent et détruisent leurs propres cibles. Le débat se concentre en grande partie sur si on devrait interdire de tels systèmes de tuer des personnes, à moins qu’elles ne soient en temps réel sous un contrôle humain significatif. Les définitions de termes tels que « autonomie » et « contrôle humain significative » sont contestées, mais l’idée de base est qu’une arme robotique ne doit pas tuer des humains sans que le chef militaire autorisé donne la commande, qui peut être tenu comme responsable pour l’acte, et plus particulièrement pour la mort des non-combattants.

Une interdiction des robots tueurs est particulièrement problématique pour un certain nombre de raisons :

  • Contrairement à d’autres armes qui ont été interdites, certaines utilisations des robots tueurs sont perçues comme étant moralement acceptables. Par exemple, ils sont utilisés de manière défensive pour contrer rapidement une attaque entrante. Plus important encore, dans le combat offensif, ils peuvent être substitués, et ainsi sauver la vie de ses propres soldats.
  • Il n’est pas clair si les robots militaires armés doivent être considérés comme des systèmes d’armes ou des plates-formes d’armes.
  • Le contrôle des armements est généralement axé sur l’élaboration des régimes de vérification et d’inspection afin de déterminer si les adversaires respectent l’interdiction. La différence entre un système robotique létal et non létal peut être un peu plus que quelques lignes de code, ce qui serait difficile à détecter et pourrait être supprimé avant ou ajouté après une inspection. En d’autres termes, si une partie choisit de tricher, il n y’a aucun moyen d’imposer une interdiction à l’avance.
  • À l’avenir, les systèmes de robots tueurs seront relativement faciles à assembler en utilisant des technologies développées pour des applications civiles.

Néanmoins, il y a un fort sentiment parmi les civils et une grande partie de l’armée que les robots tueurs sont des changeurs de jeu et devraient être bannis. Bien sûr, il y en a dans les cercles de planification militaire et au sein du complexe industriel militaire qui favorisent le développement de ces systèmes, ou ne veulent pas que leurs options soient limitées par des individus « bien intentionnés » mais « naïfs ». Ils soutiennent que le sentiment contre l’armement robotique est basé sur la science-fiction ou qu’il serait impossible de mettre en place une interdiction effective, et donc nous devons développer des armes robotiques avanc.es avant nos adversaires. Après tout, aucun planificateur militaire ne veut abandonner l’avantage stratégique obtenu grâce à la technologie la plus avancée. La difficulté avec la logique de la course aux armements est qu’elle conduit à un développement sans fin et en escalade rapide d’armes de plus en plus avancées. En outre, les pays qui développent de nouvelles armes afin d’avoir une supériorité technologique accélèrent le processus et abaissent le coût pour les pays qui suivent en s’appuyant sur la preuve de concept et les leçons tirées de la recherche initiale. De plus, l’espionnage, les contrôles à l’exportation médiocres et l’ingénierie arrièrée accélèrent le processus et réduisent les coûts pour les pays qui suivent les leaders.

Il existe actuellement une fenêtre d’opportunité pour adopter une interdiction, mais cette fenêtre pourrait se fermer rapidement une fois que les pays commenceront à déployer des systèmes relativement bêtes. Le retard est dans les mains de ceux qui désirent de tels armements. Précipiter la confusion pour savoir si une interdiction peut être forgée est un outil puissant pour ceux qui veulent retarder toute action. En effet, certains opposants à une interdiction affirment qu’il n’y a pas de raison pour se dépêcher, car de tels systèmes n’existent pas encore. Cependant, les responsables américains du Département de la Défense affirment qu’ils ne veulent pas sortir les humains de la boucle de la prise de décisions, mais suggèrent toutefois que la Russie et peut-être la Chine vont de l’avant dans le développement des systèmes d’armes autonomes.

Compte tenu des défis uniques posés par les systèmes des robots tueurs, les négociateurs d’armes devront être très créatifs dans l’établissement d’une nouvelle approche pour interdire leur utilisation. J’ai suggéré qu’ils nous convient d’abord que les machines qui prennent les décisions de vie ou de mort soient quelque chose qui sont mala in se (mauvaises en soi), parce qu’elles sont imprévisibles et ne peuvent pas être entièrement contrôlées. Leur utilisation rendrait l’attribution de la responsabilité pour la mort injustifiée très difficile, voire impossible. Une fois ce principe mis en place, les négociateurs peuvent passer à ce qui sera un débat interminable sur la question de savoir si ou quand les robots tueurs sont des extensions de la volonté et de l’intention humaine et sont sous un contrôle humain significatif. Il sera impossible de définir quand cette ligne a été franchie, mais avec un principe moral fort en place, il sera possible de condamner des actes flagrants.

L’absence de la discrimination dans l’intelligence artificielle actuelle signifie que tout système de robots tueurs constituerait une violation du droit international humanitaire, également connu sous le nom des lois sur les conflits armés. Le simple fait de clarifier ce point pourrait être considéré comme une première étape pour déclarer que les machines qui prennent les décisions de vie et de mort sont mala in se (mauvaises en soi). Si, par exemple, le premier ministre Trudeau déclarait que le Canada considère les robots tueurs comme une violation du droit international humanitaire existant, son gouvernement enverrait un message fort qui forcerait les autres pays à être d’accord ou en désaccord. Mais dans les deux cas, ces pays cesseraient de se cacher derrière des ambiguïtés comme une tactique dilatoire.

Haut de page