Dossier : Promesses et périls (...)

Robots et éthique

Normand Baillargeon

Un récent film de science-fiction, I, Robot, a pour prémisse le drame suivant, douloureusement vécu par un homme : lors d’un accident de voiture, un robot a préféré l’extirper, lui, de la voiture accidentée, plutôt qu’une petite fille. C’est que le robot avait estimé à 45 % ses chances de survie et seulement à 13 % celles de l’enfant.

Inconcevable ? Pas sûr. Car les travaux en matière de robots androïdes font des progrès remarquables.

Pour en avoir un aperçu, allez par exemple sur You-Tube et recherchez « Repliee Q2 » : vous verrez que ce qu’on fait actuellement en la matière est déjà passablement étonnant.

Imaginez à présent que ces progrès soient qualitativement semblables à ceux des ordinateurs depuis 30 ans. Personne, je pense, ne se risquerait en ce cas à prédire avec assurance la place qu’occuperaient les robots dans nos vies en 2040 ou ce qu’ils y feront. Ce pourrait être, notez-le, des robots domestiques, des robots ouvriers, des robots fonctionnaires, mais aussi des robots chirurgiens, sans oublier des robots policiers ou des robots soldats !

Plusieurs pensent qu’il est vraisemblable pour ces raisons que de nouveaux problèmes éthiques soient à nos portes, des problèmes dont le film cité plus haut donne une minuscule idée. C’est ainsi que s’explique le fait qu’il existe, depuis quelques années, des ouvrages, des articles et des groupes de réflexion dans lesquels scientifiques et philosophes spéculent sur ce qu’impliquera le développement de la robotique. L’éthique est au cœur de ces travaux.

Pour commencer, on se demande si ces robots ont des droits et sont des sujets éthiques. Sont-ils de simples outils ou des agents ? Et si oui, quel type d’agents sont-ils et avec quelles implications cela a-t-il pour la moralité ?

On se demande aussi ce que leur présence impliquera dans les relations qu’ils entretiendront avec les humains. Comment faut-il les programmer ? Que peut-on permettre ou interdire qu’ils fassent ? Veut-on, ou non, que ces robots prennent des décisions éthiques ? Et si oui sur quelles bases ?

Les questions posées donnent vraiment le vertige et je ne les aborderai évidemment pas ici. Malgré tout, et puisque nous sommes partis de la science-fiction, terminons avec elle et en saluant comme il se doit un de ses maîtres, Isaac Asimov (1920-1992). Dès 1942, dans son roman de science-fiction Runaround, celui-ci avait en effet énoncé ses Trois lois de la robotique, où se laissent deviner les enjeux que nous pressentons aujourd’hui et que nous côtoierons peut-être demain. Les voici :

1. Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.

2. Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.

3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la seconde loi.

Lecture suggérée
Une excellente introduction à ce vaste et fascinant domaine est proposée dans : Allen, C. et Walach, W., Moral Machines : Teaching Robots Right from Wrong, Oxford University Press, 2008.

Vous avez aimé cet article?
À bâbord! vit grâce au soutien de ses lectrices et lecteurs.
Partager sur        

Articlessur le même thème