Faut-il constitutionnaliser les lois d'Asimov ?


Un député a récemment proposé d'écrire les lois de la robotique d'Asimov dans la Constitution. Est-ce une bonne idée ?

Le député Pierre-Alain Raphan a proposé une loi constitutionnelle relative à la charte de l’intelligence artificielle et des algorithmes. Grâce à cette proposition, le droit, qui appréhende souvent avec retard les évolutions scientifiques et technologiques, prendrait une longueur d’avance en anticipant un futur dans lequel l’humanité serait assistée de robots. L’idée ne semble pas si incongrue lorsqu’on constate les progrès rapides des assistants vocaux et des systèmes de reconnaissance biométriques de nos smartphones ou des mécanismes de pilotage assisté de nos voitures.

Il s’agit donc, peu ou prou, de définir le cadre fondamental de l’intelligence artificielle afin qu’elle ne puisse jamais nuire aux êtres humains. L’idée a de quoi séduire. Mais ce qui éveille surtout la curiosité, c’est que la proposition de loi entend intégrer dans la Constitution les trois lois de la robotique imaginées par l’auteur de science-fiction Isaac Asimov en 1942.

Les lois d’Asimov sont ainsi formulées :

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Que penser de cette proposition de loi constitutionnelle ? À notre avis, il est trop tôt : sans perdre de son mérite, l’idée de “constitutionnaliser” les lois de la robotique devra surmonter plusieurs difficultés, d’ordre technique et philosophique, avant d’être réalisable.

La première difficulté réside dans le choix de l’instrument destiné à être le vecteur des lois de la robotique. Notre Constitution est la norme fondamentale du droit français : elle définit le cadre général de la vie dans notre société. Son domaine est donc doublement restreint, matériellement et géographiquement.

Matériellement, d’abord, la Constitution n’a pas vocation à régir directement toutes les évolutions de notre société. Au contraire, elle constitue un socle juridique commun qui permet aux évolutions de survenir. Son rôle n’est donc pas de les prévoir ou de les anticiper, mais de garantir qu’elles surviennent dans le respect de la République et des droits des citoyens. C’est pour cela que la Constitution contient des principes généraux, qu’il appartient aux lois de préciser. Il n’est donc pas interdit de constitutionnaliser les lois de la robotique, mais cela n’est en rien une nécessité. Il suffirait en effet que les intelligences artificielles respectent les lois, qui sont elles-mêmes conformes à la Constitution, pour que les droits des citoyens soient garantis.

Géographiquement ensuite, la Constitution française n’a vocation à s’appliquer qu’en France. Quelle serait l’efficacité d’une règle telle que la première loi d’Asimov, “un robot ne peut porter atteinte à un être humain”, dans une économie mondialisée ? Pour être efficace, elle devrait être respectée par tous les concepteurs d’intelligences artificielles dans le monde, dès lors que leurs robots sont en contact avec le public français. Or, notre Constitution n’a pas le pouvoir de s’imposer à l’étranger. Pour que les lois de la robotique soient efficaces au plan international, il faut quitter le domaine du droit constitutionnel pour entrer dans celui du droit international.

Pour ces deux raisons, les lois de la robotique trouveraient bien difficilement leur place dans la Constitution. En revanche, elles pourraient faire l’objet de conventions internationales, élaborées sous l’égide d’organisations internationales telles que l’Union Européenne ou l’ONU, et être transposées en droit interne par des lois ordinaires. Contrairement à la Constitution, les conventions internationales reposent sur l’accord des États parties et leurs règles produisent leurs effets au delà des frontières nationales. Et contrairement aux principes constitutionnels, les lois contiennent des règles précises qui ont vocation à régir les évolutions de la société.

Outre le choix de l’instrument devant servir de vecteur aux lois de la robotique, il nous semble, d’un point de vue de juriste, qu’il existe un autre obstacle technique important : les robots n’ont pas de personnalité juridique, ils n’ont ni droit ni obligation. La proposition de loi le prévoit à son article 1er :

Un système tel que défini dans cet article n’est pas doté de la personnalité juridique et par conséquent inapte à être titulaire de droits subjectifs.

Qu’un objet inerte ne dispose pas de la personnalité juridique n’empêche pas de le soumettre au droit. Les exemples sont nombreux de réglementations imposant des normes de fabrication à l’industrie. Pourtant, le problème est ici bien différent puisque l’on entend imposer le respect du droit à une intelligence qui, par définition, évolue de manière autonome. Comment garantir que son évolution respectera les lois humaines, dès lors qu’elle n’est pas sujet de droit et que ces lois ne la concernent pas ?

La proposition de loi avance une solution très insatisfaisante :

Cependant les obligations qui découlent de la personnalité juridique incombent à la personne morale ou physique qui héberge ou distribue le dit système devenant de fait son représentant juridique.

Si l’on ne fait pas des intelligences artifielles des sujets de droit, alors il faut qu’elles soient sous la responsabilité d’une personne. Cette personne est, selon la proposition de loi, celle qui héberge ou distribue le robot… et pourquoi pas celle qui l’utilise ? Peut-on appliquer le critère de l’usage, du contrôle et de la direction, élaboré par la jurisprudence à propos de la responsabilité du fait des choses, à l’utilisation d’intelligences artificielles qui, par hypothèse, agissent de manière autonome ? Doit-on concevoir un régime de responsabilités en cascade selon lequel le fabricant serait responsable d’avoir laissé la possibilité au robot de causer un dommage, alors que l’utilisateur du robot serait responsable du dommage en soi ? Ce ne sont là que quelques interrogations, mais l’on voit d’ores et déjà qu’elles sont plus nombreuses que les réponses fournies par la proposition de loi.

Les objections techniques sont importantes, mais elles ne sont pas rédhibitoires. Le droit sait, lui aussi, évoluer et s’adapter. Les objections les plus sérieuses sont en réalité d’ordre philosophique.

L’on pense souvent, à tort, que le droit et la morale sont antinomiques. En réalité, nombreuses sont les règles de droit qui reposent sur le fondement d’une règle morale communément admise dans une société à une époque donnée. Par exemple, la société française actuelle aurait en horreur le rétablissement de la peine de mort, mais la fameuse règle du code Hammurabi, “œil pour œil, dent pour dent”, était le reflet de la justice de son époque.

Si les intelligences artificielles étaient amenées à prendre des décisions de manière autonome, elles devraient, comme les humains, être dotées de règles morales. À cet égard, les lois de la robotique d’Asimov sont loin de suffire. Pour s’en convaincre, il suffit de tenter de résoudre le cas pratique le plus fréquemment évoqué par les chercheurs en intelligence artificielle.

Imaginons un pont très étroit, sur lequel passe une route. Le pont est haut et sous lui un ravin ne laisse aucun espoir de survie en cas de chute. Voici une voiture pilotée par une intelligence artificielle qui s’engage sur le pont avec à son bord un passager. Il fait nuit, le brouillard est épais, l’efficacité des capteurs de la voiture est réduite. Soudain, les capteurs enregistent une présence au milieu de la chaussée : une vieille dame traverse lentement la route. En une franction de seconde, l’intelligence artificielle parvient à la conclusion que, compte tenu de la vitesse de la voiture, de la distance qui la sépare de l’obstacle et de sa puissance de freinage, il n’existe aucun moyen d’éviter l’accident en maintenant sa trajectoire.

Que doit faire l’intelligence artificielle aux commandes de la voiture ? Pour prendre sa décision, elle applique la première loi de la robotique :

un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger

Si la voiture change de trajectoire pour éviter la vieille dame, elle tombe dans le ravin et cause la mort de son passager. Elle viole donc la première loi par son action. Au contraire, si la voiture maintient sa trajectoire et percute la vieille dame, elle viole la même loi par son inaction.

L’intelligence artificielle doit faire un choix, sauver une vie et sacrifier une vie, mais la règle de droit ne lui dira pas quel est le bon. Ce choix est d’ordre moral.

Or, comment inculquer une morale humaine à une machine ? L’intelligence artificielle est aujourd’hui en gestation, elle vivra demain son enfance. Il semble donc naturel de l’éduquer comme l’on éduque nos enfants, de lui permettre d’apprendre comme eux, en observant et en reproduisant nos actions. Cela soulève deux difficultés.

La première difficulté découle de la frontière incertaine entre l’acquis et l’inné, qui aura une incidence sur la responsabilité du concepteur de l’intelligence artificielle (inné), et sur celle de son utilisateur (acquis).

Le concepteur de l’intelligence artificielle peut la concevoir de telle manière qu’elle soit docile et obéissante, mais il ne peut pas contrôler son évolution dès lors qu’il lui donne la possibilité de se construire par sa propre expérience, au contact de l’utilisateur. En somme, l’intelligence artificielle peut être plus proche de l’intelligence d’un chien, facile à dresser, que de celle d’un chat, rétif au commandement humain ; mais il existe des chiens paisibles comme il existe des chiens de garde, dressés pour être agressifs.

Les lois de la robotique que la proposition de loi entend intégrer dans la Constitution visent essentiellement les concepteurs de robots. Elles ont donc trait à l’inné ; et l’acquis leur échappe dans une large mesure. Or, tout l’intérêt d’une intelligence artificielle est de construire sa propre expérience de manière autonome. C’est donc probablement de l’acquis que naîtront les biais les plus importants. Citons à titre d’exemple une étude publiée en 2018 par le MIT, selon laquelle les algorithmes de reconnaissance faciale sont biaisés en faveur des hommes blancs, au détriment des hommes et des femmes d’une autre couleur, en raison de la surabondance d’hommes blancs dans les banques d’images ayant servi à leur entraînement.

La seconde difficulté réside dans la liberté de chacun d’éduquer “son robot” comme il l’entend, en fonction de sa culture, de ses croyances et de son mode de vie. Il n’y aura donc pas une morale universelle du robot, comme il n’y a pas une éducation mais des éducations possibles, avec leurs forces et leurs faiblesses.

L’acquis engendre de la complexité et de l’imprévision. Pour appréhender cette complexité, le droit devient lui aussi plus complexe au fil de son évolution. Ainsi, les lois très générales d’Asimov ne peuvent se suffire à elles-mêmes. Elles devront être complétées par d’autres lois, plus précises, et par une jurisprudence établissant l’interprétation à leur donner lors de leur confrontation aux réalités de notre monde.