Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
5 février 2019 2 05 /02 /février /2019 08:41

01net Hors-Série – Juillet-Aout 2016

ROBOTS.

Éthique et robotique

Gabriel Siméon

Le 23 mars 2016 le robot Tay démontra que la bêtise peut être aussi artificielle. En quelques heures cette IA (sic) mise au point par Microsoft déversa un flot de tweets injurieux, misogynes, racistes et révisionnistes. L'adolescente lui servant d'avatar ne manifesta aucune émotion mais les ingénieurs n'eurent qu'à appuyer sur un bouton pour la faire taire.

Un jour viendra où les machines feront la différente entre le bien et le mal, suivant les définitions que les humains ont de ces mots. Pour parfaire (re-sic) la ressemblance avec l'intelligence humaine (bel oxymore) des scientifiques, philosophes et sociologues essaient de mettre au point une nouvelle discipline, la roboéthique : Comment initier les machines à la déontologie ?

Simple, puisqu'il ne s'agit pas de donner une conscience à une machine il est suffisant de lui interdire, par algorithmes interposés, certaines actions.

En 1942 Isaac Asimov énonça trois lois :

- Un robot ne peut porter atteinte à un humain, ni, en restant inactif, permettre qu'il soit blessé.

- Un robot doit obéir aux ordres qui lui sont donnés par un humain, sauf s'ils entrent en conflit avec la première loi.

- Un robot doit protéger son existence tant que cela n'entre pas en conflit avec les deux premières lois.

À cette époque il s'agissait de science fiction mais la cohabitation devenant possible l'établissement de règles de ''vie en commun'' devient nécessaire. La Corée du Sud a déjà adopté une charte éthique dérivée des dogmes ci-dessus.

Mark Riedl et Brent Harrison, chercheurs au Georgia Institute

of Technology pensent qu'il faut leur faire lire les contes pour enfants. Ceux qui comprendront ces histoires ne deviendront

jamais de dangereux psychopathes. Tout en accomplissant leurs tâches ils privilégieront les options qui ne blesseront pas les humains. Quixote, le logiciel qu'ils ont mis au point leur lit des fables pour leur apprendre à se comporter en société.

Le robot ''kantien'' n'est pas loin, défini par Thomas Powers, un philosophe américain dont les travaux s'inspire des théories émises par E. K. avec pour ambition de développer des algorithmes permettant aux robots de forger progressivement, leurs propres règles de morale. Le problème étant qu'une loi morale souffre parfois d'exceptions sans parler de dilemmes possibles. Par exemple, si la collision est inévitable, une voiture autonome doit-elle privilégier la survie de son unique passager ou celle des deux enfants qui courent sur la chaussée ?

Une voiture ainsi bridée se vendrait-elle ?

La roboéthique pose des questions techniques et nous invite à nous interroger sur nos propres questions morales et nos choix de société. Nous ne sommes pas infaillibles, les robots ne peuvent pas l'être. Impossible de supposer qu'ils ne se tromperont jamais.

Reste à imaginer des tribunaux pour robots à l'image de ceux pour humains.

Partager cet article
Repost0

commentaires

Présentation

  • : Lire au nid
  • : Mes (ré)créations littéraires et photographiques.
  • Contact

Bienvenue...

Bienvenue sur ce blog ! Vous y découvrirez mes goûts, et dégoûts parfois, dans un désordre qui me ressemble ; y partagerez mon état d'esprit au fil de son évolution, parfois noir, parfois seulement gris (c'est le moins pire que je puisse faire !) et si vous revenez c'est que vous avez trouvé ici quelque chose qui vous convenait et désirez en explorant mon domaine faire mieux connaissance avec les facettes les moins souriantes de votre personnalité.

Rechercher

Pages