Sections
Accueil UNamur > Nouvelles > Le professeur Lambert invité aux Nations Unies sur la question des robots autonomes armés
Nouvelle

Le professeur Lambert invité aux Nations Unies sur la question des robots autonomes armés

C’est devant les représentants des Nations-Unies que Dominique Lambert (Département sciences, philosophies & sociétés) a livré une réflexion éthique et sociologique sur les systèmes d’armes autonomes létales. Son intervention tournait principalement autour de deux questions : un algorithme peut-il remplacer la pensée humaine et quelles seraient les conséquences d’une « déshumanisation » de la guerre? Une intervention qui s’inscrit dans le cadre d’une réunion d'experts qui se tenait à Genève du 13 mai au 16 mai dernier.

« Des robots capables de rechercher, d’identifier et d’utiliser des armes (létales ou non) sans médiation humaine dans un environnement non limité (ouvert), ni prescrit a priori, avec la capacité de s’y adapter (éventuellement par apprentissage)», telle est la définition que Dominique Lambert propose pour identifier les systèmes d’armes autonomes. Surréaliste ou futuriste ? Pas tant que cela, la recherche en robotique progresse très vite, c’est pourquoi une réflexion s’impose !

Sans être technophobe, le professeur namurois a articulé sa réflexion autour de deux principaux questionnements : la complexité de l’agir humain est-elle transposable en algorithme et quelles seraient les conséquences, voire les dérives, d’une « déshumanisation » de la guerre ?  Les exigences du droit humanitaire, les décisions militaires (anticiper les évolutions du conflit, décider le risque que l’on est prêt à accepter), la différenciation entre combattants et non combattants,… font appel à notre capacité intuitive et prospective ou à nos valeurs, difficilement traductibles en algorithmes. A ceux qui pensent qu’il serait possible de doter les robots de capacités morales en installant des « logiciels éthiques », Dominique Lambert répond qu’on n’obtiendrait qu’une simulation de « l’agir moral humain qui suppose la référence à des intentions particulières que l’on ne peut attribuer à une machine ». En outre cela poserait de nombreuses questions : Quelle éthique implémenter ? Les situations complexes peuvent-elles être appréhendées par un logiciel ? Comment le logiciel abordera-t-il les conflits de valeurs ? « Il y a un sens profond et une importance cruciale à maintenir l’humain dans la boucle de décision morale », insiste l’orateur. 

Quant aux conséquences, elles pourraient être effrayantes. L’usage de telles armes provoquerait, selon le professeur namurois, « une volonté de vengeance et de destruction plus grandes d’humains par des méthodes plus barbares (terrorismes). Des risques d’escalade de la violence liés au caractère ressenti comme déloyal et asymétrique de ce type d’armes ne doivent pas être négligés ». Autres conséquences à craindre : une banalisation de la guerre, devenue une entreprise sans risque pour celui qui l’entreprend, ou une déresponsabilisation sous le couvert de défaillances technologiques. Plus largement, la politique, la diplomatie et la profession militaire risqueraient d’être vidées de leur sens. On assisterait alors à une dépolitisation qui va de pair avec une déshumanisation.

En guise de conclusion, Dominique Lambert invite chacun à réfléchir sur la place qu’occuperait encore l’Homme dans un monde peuplé de robots autonomes : « Il serait auto-contradictoire de promouvoir des robots qui finalement mettraient l’homme complètement hors-jeu en le privant de sa capacité de décider, de réconcilier, d’humaniser et de construire lui-même son histoire ».

Plus d'info : http://www.unog.ch/80256EDD006B8954/%28httpAssets%29/354043B9078FBE70C1257CDA0027A271/$file/Dominique+Lambert+LAWS+ethical+2014.pdf