De l’éthique du robot soldat au moment de tuer. Interview avec Ronald Arkin

Le 7 mai 2011

Les robots automatisés, sans pilote, sont de plus en plus présents lors des conflits. Comment encadrer leur utilisation ? Spécialiste du sujet, Ronald Arkin a répondu aux questions d'OWNI.

Billet initialement publié sur OWNI.eu – liens en anglais

Les armes téléguidées sont la dernière nouveauté issue de la technologie militaire : des robots commandés à distance qui remplacent les soldats de chair lors des guerres. L’introduction des robots a changé les prémisses des conflits et redéfini entièrement la notion de ”partir en guerre” pour les soldats. Quand l’armée américaine s’est rendue en Irak en 2003, elle recourait seulement très peu aux avions robotisés, ce qu’on appelle des drones. Aujourd’hui, des milliers d’Unmanned Aerial Vehicles (UAV’s) (véhicules aériens sans pilote) et d’Unmanned Ground Vehicles (UGV’s) (véhicule au sol sans pilote) sont utilisés, principalement en Irak et en Afghanistan, mais aussi au Pakistan et, récemment, dans le cadre de l’intervention militaire en Libye.

La plupart des robots ne sont pas armés et sont utilisés pour surveiller, faire de la reconnaissance ou détruire des mines et autres engins explosifs. Cependant, ces dernières années, il y a eu un accroissement spectaculaire du recours aux robots armés dans les combats. Les nouvelles technologies permettent aux soldats de tuer sans se mettre en danger, augmentant davantage la distance avec le champ de batailles et les adversaires.

Le développement de systèmes sans pilote est une priorité de l’armée américaine. Les robots sauvent la vie des soldats. Ils ne demandent pas de soutien pour les soldats, ni de système de sécurité, ils sont donc aussi rentables. Selon la feuille de route 2009-2034 du département Ministère de la Défense américain, les robots armés s’installent dans chacun des secteurs au sein de l’armée. On projette les UGV pour mener des opérations offensives, de reconnaissance armée et des attaques. Les UAV du futur auront la capacité de mener des combats air-air, et la Navy développe des Unmanned Underwater Vehicles (UUV’s) (véhicule sous-marin sans pilote), particulièrement adaptés pour déposer et neutraliser des mines. Actuellement, si tous les robots opèrent sous contrôle humain, la feuille de route du ministère de la Défense indique que “les systèmes sans pilote progresseront davantage en terme d’autonomie.”

Le spécialiste reconnu de la robotique Ronald Arkin explique que les robots utilisés lors des guerres pourraient à la fois sauver des soldats et réduire en fin de compte les victimes civiles. Le stress émotionnel que la guerre provoque chez les soldats entraîne souvent des comportements, parfois violents, à l’encontre de l’éthique. Une étude sur les soldats menée par le US Army Surgeon General’s Office (le bureau général de la chirurgie de l’US army) en 2006 montrait que les soldats plein de haine avaient deux fois plus de chance de maltraiter les non-combattants que ceux qui l’étaient peu. Moins de la moitié approuvaient l’idée que les non-combattants devraient être traités avec dignité et respect et environ 10% admettaient qu’ils avaient endommagé ou détruit des biens, ou frappé un civil alors que ce n’était pas nécessaire. Arkin propose que les robots puissent être conçus avec de l’intelligence éthique, ce qui au final leur permettrait d’être plus efficaces que les humains dans des situations de guerre.

Arkin est professeur à la faculté d’informatique à l’Institut de technologie de Georgie. Il est consultant pour plusieurs entreprises importantes concevant des systèmes de robotique intelligente et s’adresse régulièrement aux militaires américains, au Pentagone, aux ONG et aux agences gouvernementales. Il évoque avec OWNI les nouvelles technologies de la robotique et les recherches pour créer des robots gouvernés par des principes éthiques.

Alors que les capacités des armes téléguidées progressent, nous aurons peut-être bientôt des systèmes complètement automatisés dans les batailles. À votre avis, combien de temps cela prendra-t-il pour que les machines soient capables d’agir et de tuer de leur propre gré ?

Je voudrais dire que cela existe déjà. Des systèmes simples comme les mines peuvent être définis comme des systèmes robotiques car ils détectent l’environnement et ils se mettent en marche, en l’occurrence en explosant. Des systèmes tels que le Missile Patriote, les Aegis Class Cruisers, et les mines marines Captor ont tous la capacité de viser et d’engager le combat sans intervention humaine supplémentaire après avoir été activés. Donc, dans une certaine mesure, ils existent déjà. La question est simplement de savoir dans quelle proportion ils seront introduits dans l’espace de bataille à court terme.

L’autonomie est une question insidieuse. D’une certaine façon, on s’en rapproche à pas de loup. Ce n’est pas quelque chose qu’on obtiendra du jour au lendemain. Si vous regardez les graphiques du service d’acquisition militaire, il y a une courbe douce continue avec plusieurs étapes, qui montre la progression des niveaux d’autonomie. L’idée, c’est que la prise de décision sera repoussée de plus en plus loin jusqu’à ce que nous appelons la “pointe de la lance” – vers la machine à proprement parler et de moins en moins du côté de l’humain pour prendre une décision immédiate de tuer.

Vous proposez que les robots puissent être conçus avec des logiciels éthiques, adhérant aux lois de la guerre, mais sans les émotions telles que l’angoisse et la peur. À quel point les machines peuvent-elle être rendues humaines ?

Les rendre humaines n’est pas un but en soi. Il s’agit de les faire adhérer à ce que les humains ont défini comme une façon éthique de mener la guerre, aussi oxymorique que cela puisse paraître. Si vous regardez les lois internationales de la guerre et les conventions de Genève, vous verrez ce sur quoi les hommes se sont accordés pour définir une façon éthique de se tuer dans le cadre de la guerre. Cela ne me réjouit pas mais si nous introduisons des systèmes robotiques dans ce type de domaine, nous devons nous assurer qu’ils adhèrent aux mêmes lois que des combattants humains.

Il est intéressant de constater que les gens ont réfléchi à ces questions sur les champs de bataille depuis des centaines d’années. Il y a des discussions internationales d’envergure et des accords sur ce qui est considéré comme acceptable ou pas. C’est assez bien délimité et pour un spécialiste de la robotique, essayer de créer un robot éthique est aisé, comparé à la complexité de comprendre comment faire un robot qui va se comporter de façon appropriée et morale avec votre grand-mère. Ces aspects ont été étudiés par des philosophes, des scientifiques de l’armée, des avocats, et sont codifiés et existent. C’est pourquoi cela a de la valeur.

Votre article “Le cas de l’autonomie éthique dans les systèmes sans pilote”, dans le Journal of Military Ethics (décembre 2010) évoque le problème de la conception de soldats humains qui combattent bien, même sans entrainement. Les soldats ne combattent peut-être pas bien car leur agressivité n’a pas été assez entretenue et qu’ils ne peuvent pas suivre certains ordres. D’un autre côté, les robots n’hésiteraient pas à tuer pour des raisons d’ordre émotionnel, et ils suivraient toujours un ordre. Certains craignent qu’on arrive à des guerres inhumaines. Comment les robots éthiques s’accommoderaient-ils de l’autorité ?

Ils ne suivraient pas toujours les ordres. Un robot peut refuser un ordre s’il estime que c’est contraire à l’éthique. C’est ça la question. L’idée de notion de gouvernance éthique consiste à produire un mécanisme d’évaluation qui observera l’action que le robot est sur le point d’entreprendre, de la mesurer à l’aune des accords internationaux et de décider s’il doit mener cette action.

Que pensez-vous de la possibilité de créer ce type d’intelligence aujourd’hui ? Est-ce que cela va être possible ?

L’argument vient de l’informaticien Noel Sharky, entre autres, qui fondamentalement ne voit pas comment cela est possible. Les mêmes arguments peuvent être utilisés à propos des hommes volants et de l’envoi d’un homme sur la Lune. L’ordinateur IBM Watson a mis en échec l’intelligence humaine sur l’exercice particulier du jeu Jeopardy. Les robots sont déjà plus intelligents et ils auront de meilleurs capteurs pour être capables de détecter le champ de bataille.

Ils seront capables de traiter l’information bien plus rapidement que n’importe quel humain. Dans le futur, je suis convaincu que nous pourrons en effet créer ces systèmes capables d’exécuter des tâches et de dépasser les humains d’un point de vue éthique. Il est important d’avoir à l’esprit que les systèmes ne seront pas parfaits, mais qu’ils peuvent faire mieux que les humains. Des vies humaines seront ainsi épargnées, ce qui est le but du travail dans lequel je m’implique.

Votre travail comporte-t-il des risques selon vous ? Serait-il possible de reprogrammer un robot éthique pour qu’il devienne non éthique ?

De la même façon que vous pouvez dire à un soldat d’agir de façon immorale, il est concevable de reprogrammer des robots pour qu’ils passent outre ou ignorent les règles de la guerre. Il est important qu’en concevant ces systèmes, nous nous assurions que si quelque chose de semblable se passe, cela soit attribuable à l’auteur de ces changements, quel qu’il soit, et faciliter ainsi les poursuites contre les individus qui ont œuvré pour commettre des crimes de guerre. Personne ne devrait pouvoir se cacher derrière un robot et le mettre en cause à sa place. Il y a toujours un humain qui agit sur cette chaine. Nous pouvons essayer de concevoir des garde-fous dans ces systèmes. Cela ne signifie pas qu’ils ne pourraient pas être contournés mais ce qui compte, c’est qu’il est beaucoup plus facile de fouiner à l’intérieur d’un ordinateur et de son système d’enregistrement que de chercher dans l’esprit d’un humain.

Ces robots éthiques pourraient-ils être déployés dans d’autres domaines ?

Oui ! Nous pourrions en avoir partout où les robots sont utilisés. C’est ce vers quoi l’on s’achemine. Comment comprenez-vous les systèmes dans lesquels chaque humain interagit avec des plate-formes spécifiques de façon à améliorer la société, et non la détériorer ? Quand vous commencez à croiser les cultures, les attentes sont différentes ainsi que les points de vue sur ce qui est éthiquement approprié. L’aspect positif du travail des militaires, c’est qu’il existe un accord international. En revanche, il n’en existe pas sur la façon dont il faut traiter votre grand-père.

Pourquoi vos recherches sont-elles importantes ?

J’ai souvent dit que les discussions que mon travail engendrent sont aussi importantes, sinon davantage, que les recherches en elles-mêmes. Nous essayons de susciter une prise de conscience sur ce qui va se passer avec ces systèmes et il extrêmement important de s’assurer que notre société comprenne entièrement ce que nous faisons en créant ces technologies. Même si cela mène à interdire l’usage de la force létale par ces systèmes autonomes, je n’y suis pas opposé. Je crois que nous pouvons faire mieux mais nous ne pouvons pas laisser les choses avancer sans une compréhension complète des conséquences d’une telle mise en œuvre.


Crédits photos : Flickr CC familymwr, Will Cyr, Walt Jabsco and RDECOM

Traduction Sabine Blanc

Laisser un commentaire

Derniers articles publiés