Raccourcis:

Aller directement au contenu (Alt 1) Aller directement à la navigation principale (Alt 2)

Intelligence artificielle
Une éthique pour les machines

Que faire quand les machines prennent des décisions, par exemple dans le domaine de la sécurité routière ?
Que faire quand les machines prennent des décisions, par exemple dans le domaine de la sécurité routière ? | Photo (detail): © RioPatuca Images – Fotolia.com

Dans le processus de digitalisation, les hommes délèguent leurs responsabilités à des engins techniques. Quelles décisions peuvent prendre les machines et comment réagissons-nous aux conséquences que celles-ci peuvent avoir ? En Allemagne, une commission d’éthique s’intéresse à cette problématique.

Un automobiliste roule rapidement sur une route de campagne quand soudain un véhicule en train de doubler se retrouve face à lui. Il n’a que deux possibilités : soit il tourne violemment son volant et se précipite hors de la voie pour se retrouver au milieu d’un groupe d’enfants en train de jouer, soit il reste sur sa file en espérant que l’autre conducteur l’évitera. Quoi qu’il entreprenne, il ne prendra pas de décision réfléchie en raison du peu de temps dont il dispose mais sera guidé par son instinct. Aucun tribunal du monde ne viendrait à l’idée de le condamner pour cela.

Mais il en serait autrement si le conducteur était un robot. S’il s’agissait de l’un de ces véhicules autonomes qui font des tests pour Google ou Audi depuis déjà plusieurs années. Ses processeurs, œuvrant de manière ultra-rapide, auraient laissé suffisamment de temps à l’ordinateur pour prendre une décision. Celle-ci devrait toutefois avoir été programmée au préalable dans un algorithme. Mais dans un tel scénario, comment doit être prise la décision ? Et qui en porte la responsabilité ?

Des principes directeurs pour les algorithmes

Afin de clarifier de tels points, le gouvernement fédéral allemand a mis en place à l’automne 2016 une Commission d’éthique sur la conduite autonome. Sous la présidence de l’ancien juge constitutionnel Udo Di Fabio, une douzaine de scientifiques, d’informaticiens, d’ingénieurs et de philosophes examinent les questions relatives à la responsabilité de la décision pour les véhicules autonomes et élaborent des normes encore inexistantes jusqu’ici. « Tant qu’aucune protection juridique n’existe pas dans ce domaine, aucune entreprise n’investira dans cette technologie », déclare Armin Grunwald. Physicien et philosophe, il est membre de la Commission d’éthique et dirige par ailleurs le Bureau d’évaluation technologique au Bundestag.

Avec la conduite autonome, notre société entre en terre inconnue. « Nous réussirons la révolution mobile seulement si nous développons des principes clairs pour les algorithmes », a déclaré le ministre allemand des Transports Alexander Dobrindt lors de la réunion de lancement de la Commission d’éthique en octobre 2016. Sur la base de ses recommandations doit être votée une loi réglementant le fonctionnement des véhicules autonomes sur les voies publiques. Celle-ci doit préciser le degré de responsabilité de l’Homme, celui de l’ordinateur et aussi offrir une protection juridique tant aux clients qu’aux automobilistes, aux usagers de la route qu’aux constructeurs automobiles. D’autres initiatives suivront ce premier pas vers l’égalité entre l’Homme et la machine, Armin Grunwald en est convaincu. « Il est temps de développer une éthique pour l’intelligence artificielle. »

Quand la science-fiction préparait le terrain

Isaac Asimov, bio-chimiste américano-russe et auteur de science-fiction, a contribué à ce travail préliminaire. Dès 1942, il a publié dans sa nouvelle Runaround (Cercle vicieux) des lois de robotique devenues célèbres par la suite. Selon la première loi, un robot ne peut porter atteinte à un être humain ni, par son inaction, permettre qu’on porte atteinte à un être humain. La deuxième et la troisième lois stipulent que les robots doivent obéir aux ordres donnés par des êtres humains et qu’ils doivent protéger leur existence. Tant que ce faisant, ils n’enfreignent pas la première loi.
En 1983, parallèlement à l’élaboration des premiers robots armés autonomes, Asimov a formulé une loi robotique supplémentaire appelée « Loi Zéro » selon laquelle « un robot ne peut porter atteinte à l’humanité ni ne peut permettre, par son inaction, qu’on puisse porter atteinte à celle-ci ». Cette loi présente des imperfections car les machines pourraient ainsi en déduire une liberté illimitée et par exemple prendre la décision de tuer des personnes si c’est pour le bien de l’humanité.

Un dilemme insoluble

La Commission d’éthique allemande sur la conduite autonome ne doit pas encore se lancer dans des réflexions de cette ampleur. Elle s’intéresse surtout aux risques liés à la responsabilité. Selon les interprétations actuelles, c’est toujours le propriétaire qui est responsable des dommages : le maître pour son chien, les parents pour les enfants. Mais qu’en est-il si c’est une erreur de programmation qui cause un dommage ? Dans cette logique, le responsable devrait être le constructeur. Il est ainsi prévu qu’une boîte noire soit obligatoirement installée dans la voiture et enregistre les différentes données. Ainsi dans le cas d’un accident, on constatera qui de l’être humain ou de l’ordinateur a conduit.
La commission a déjà formulé quelques principes : l’algorithme de l’ordinateur doit privilégier les dommages matériels aux dommages corporels. Il n’aurait pas la possibilité d’appliquer des catégories aux personnes, par exemple en fonction de leur taille ou de leur âge. Pour des accidents bénins de tôle froissée, de telles critères sont relativement simples à mettre en place. Il en va autrement dans une situation pointue se présentant comme un dilemme, telle celle que nous avons décrite dans notre introduction. Est-ce que la vie d’un grand nombre de personnes peut être mise en balance avec celle de quelques personnes ?

La commission d’éthique a aussi déjà délibéré en détail sur un tel cas, raconte Armin Grunwald. Le problème est qu’une décision éthiquement acceptable n’est ici pas envisageable, on ne peut faire d’arbitrages quand il en va de vies humaines. Le principe d’égalité qui figure dans la Déclaration universelle des Droits de l’Homme et dans la Constitution allemande s’y oppose. Pour résoudre le dilemme sur un plan technique, les constructeurs pourraient intégrer dans le véhicule un générateur aléatoire. Dans de tels cas, c’est lui qui trancherait. Mais qui voudrait encore embarquer dans une telle voiture ?