01net Hors-Série – Juillet-Aout 2016
ROBOTS.
Éthique et robotique
Gabriel Siméon
Le 23 mars 2016 le robot Tay démontra que la bêtise peut être aussi artificielle. En quelques heures cette IA (sic) mise au point par Microsoft déversa un flot de tweets injurieux, misogynes, racistes et révisionnistes. L'adolescente lui servant d'avatar ne manifesta aucune émotion mais les ingénieurs n'eurent qu'à appuyer sur un bouton pour la faire taire.
Un jour viendra où les machines feront la différente entre le bien et le mal, suivant les définitions que les humains ont de ces mots. Pour parfaire (re-sic) la ressemblance avec l'intelligence humaine (bel oxymore) des scientifiques, philosophes et sociologues essaient de mettre au point une nouvelle discipline, la roboéthique : Comment initier les machines à la déontologie ?
Simple, puisqu'il ne s'agit pas de donner une conscience à une machine il est suffisant de lui interdire, par algorithmes interposés, certaines actions.
En 1942 Isaac Asimov énonça trois lois :
- Un robot ne peut porter atteinte à un humain, ni, en restant inactif, permettre qu'il soit blessé.
- Un robot doit obéir aux ordres qui lui sont donnés par un humain, sauf s'ils entrent en conflit avec la première loi.
- Un robot doit protéger son existence tant que cela n'entre pas en conflit avec les deux premières lois.
À cette époque il s'agissait de science fiction mais la cohabitation devenant possible l'établissement de règles de ''vie en commun'' devient nécessaire. La Corée du Sud a déjà adopté une charte éthique dérivée des dogmes ci-dessus.
Mark Riedl et Brent Harrison, chercheurs au Georgia Institute
of Technology pensent qu'il faut leur faire lire les contes pour enfants. Ceux qui comprendront ces histoires ne deviendront
jamais de dangereux psychopathes. Tout en accomplissant leurs tâches ils privilégieront les options qui ne blesseront pas les humains. Quixote, le logiciel qu'ils ont mis au point leur lit des fables pour leur apprendre à se comporter en société.
Le robot ''kantien'' n'est pas loin, défini par Thomas Powers, un philosophe américain dont les travaux s'inspire des théories émises par E. K. avec pour ambition de développer des algorithmes permettant aux robots de forger progressivement, leurs propres règles de morale. Le problème étant qu'une loi morale souffre parfois d'exceptions sans parler de dilemmes possibles. Par exemple, si la collision est inévitable, une voiture autonome doit-elle privilégier la survie de son unique passager ou celle des deux enfants qui courent sur la chaussée ?
Une voiture ainsi bridée se vendrait-elle ?
La roboéthique pose des questions techniques et nous invite à nous interroger sur nos propres questions morales et nos choix de société. Nous ne sommes pas infaillibles, les robots ne peuvent pas l'être. Impossible de supposer qu'ils ne se tromperont jamais.
Reste à imaginer des tribunaux pour robots à l'image de ceux pour humains.