Quelle est la politique mise à jour du Pentagone sur les robots tueurs ?

Le Pentagone a publié une mise à jour de sa Directive 3000.09, qui couvre ce qu'ils appellent Autonomie dans les systèmes d'armes et d'autres appellent 'robots tueurs.' Les drones actuels comme l'Air Force et la CIA Faucheurs MQ-9 sont commandés à distance : un être humain assis devant un écran vidéo identifie des cibles au sol à des milliers de kilomètres, les place dans le collimateur et libère un Missile Hellfire ou autre arme. Les armes autonomes sont différentes : elles choisissent leurs propres cibles sans aucune intervention humaine. Des règles claires sont nécessaires sur quand et comment ils peuvent être utilisés, et la nouvelle directive les rapproche un peu plus.

Il y a dix ans, lorsque la première version de 3000.09 est sortie, les armes autonomes ressemblaient à de la science-fiction. Maintenant, ils sont bien réels. L'ONU a prétendu que Des drones fournis par la Turquie ont attaqué des cibles de manière autonome en Libye en 2020 et la Russie déploie maintenant des munitions vagabondes en Ukraine avec capacité autonome.

De nombreux militants, comme le Campagne pour arrêter les robots tueurs, veulent une interdiction pure et simple des armes autonomes, insistant sur le fait que toute arme à distance reste sous contrôle humain significatif de tout temps. L'ONU a débattu de la manière de contrôler ces armes pendant de nombreuses années.

Cependant, comme l'indique clairement la nouvelle directive, le Pentagone s'en tient à une ligne différente.

"Le DoD s'est toujours opposé à une norme politique de" contrôle humain significatif "en ce qui concerne à la fois les systèmes autonomes et les systèmes d'IA", Grégory Allen, directeur du projet sur la gouvernance de l'IA à la Centre d'études stratégiques et internationales, m'a dit. "Le terme artistique préféré du DoD est" niveaux appropriés de jugement humain ", ce qui reflète le fait que dans certains cas - les avions de surveillance autonomes et certains types de cyber-armes autonomes, par exemple - le niveau approprié de contrôle humain peut être faible ou nul. .”

Quelles armes autonomes seraient autorisées dans quelles circonstances ? Allen pense que la version précédente de la directive était si peu claire qu'elle a découragé tout développement dans ce domaine.

"La confusion était si répandue - y compris parmi certains hauts dirigeants du DoD - que les responsables s'abstenaient de développer certains systèmes qui étaient non seulement autorisés par la politique, mais aussi expressément exemptés de l'exigence d'examen supérieur", explique Allen.

Pas une seule arme n'a été soumise au processus d'examen des armes autonomes prévu dans l'original 3000.09 au cours des dix années qui ont suivi sa publication.

Allen a écrit un essai sur ce pour le SCRS l'année dernière, décrivant quatre domaines qui nécessitaient du travail - définir formellement les systèmes d'armes autonomes, dire ce que "compatible avec l'IA" signifie pour la politique, comment le processus d'examen gérera le recyclage des modèles d'apprentissage automatique et clarifier les types d'armes nécessaires passer par le processus d'examen ardu.

"Le DoD les a tous mis en œuvre", déclare Allen.

En principe, cela devrait donc garantir ce que le DoD appelle "un engagement fort et continu à être un leader mondial transparent dans l'établissement de politiques responsables concernant les utilisations militaires des systèmes autonomes".

Cependant, certains ajouts pourraient être considérés comme des échappatoires, comme une exemption de l'examen supérieur pour les drones de défense d'armes autonomes qui ne ciblent pas les personnes («armes anti-matériel») et qui seraient autorisés à cibler des missiles, d'autres drones et éventuellement d'autres systèmes.

"Le mot 'défendre' fait une tonne de travail," Zak Kallenborn, m'a dit un chercheur en politique à la Schar School of Policy and Government de l'Université George Mason. "Si un drone opère en territoire ennemi, presque n'importe quelle arme pourrait être interprétée comme 'défendant' la plate-forme."

Kallenborn note également que si des armes effectivement autonomes comme les mines terrestres sont utilisées depuis plus d'un siècle, le paysage change rapidement en raison des progrès de l'IA et en particulier de l'apprentissage automatique. Celles-ci ont donné naissance à des systèmes très performants, mais techniquement fragile - lorsqu'ils échouent, ils échouent de manière spectaculaire d'une manière qu'aucun humain ne ferait, par exemple prendre une tortue pour un fusil.

"L'autonomie via l'IA mérite certainement plus d'attention, étant donné la fragilité et le manque d'explicabilité des approches actuellement dominantes", déclare Kallenborn.

La mise à jour n'est pas énorme. Mais cela montre l'engagement continu du Pentagone envers le développement d'armes autonomes efficaces et la conviction qu'ils peuvent se conformer à le droit international humanitaire — en distinguant les civils des militaires, en cherchant à éviter de blesser des civils et en n'utilisant qu'une force proportionnée et nécessaire.

Les militants pensent que l'IA ne possédera pas la compréhension nécessaire pour porter des jugements moraux en temps de guerre et risque de créer un monde où la guerre est automatisée et où les humains ne contrôlent plus. D'autres pensent que l'armée américaine sera surpassé par des adversaires avec des armes autonomes à moins que l'IA ne soit intégrée à un niveau tactique, et qu'une trop grande implication humaine ralentit les robots militaires.

L'argument est susceptible de se poursuivre alors même que des armes autonomes commencent à apparaître, et les résultats seront suivis de près. Quoi qu'il en soit, il semble que les robots tueurs arrivent.

Source : https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/