Les Voitures Autonomes

Les voitures de demain seront-elles sans RISQUE ?
Les voitures de demain seront sans conducteur. Tout le monde le sait. Mais la vraie prouesse n’est pas de savoir comment une voiture fait pour se garer seule.  Il s’agit plutôt de lui donner le jugement moral nécessaire pour faire le bon choix en cas d’accident.

Le dernier salon de l’automobile de Paris a été l’occasion d’une discussion à la fois futuriste et fondamentale pour notre futur, sur les voitures sans chauffeur : sauront-elles prendre les bonnes décisions en cas de danger ? Sauront-elles ce que sont le bien et le mal ? Peut-on déterminer un algorithme qui donnera une valeur morale aux actions de l’automobile ? Imaginez par exemple qu’une voiture autonome roulant à 90km/h soit face à un dilemme très gênant : un enfant surgit sur la route et elle ne peut l’éviter que si elle dévie sa trajectoire et qu’elle s’écrase contre un platane, tuant tous les occupants de la voiture. Quelle est la meilleure solution ? Aucune ? Certes. Néanmoins il faudra que la voiture prenne une décision. Tuer l’enfant ? bof…. Tuer la famille dans la voiture ? re-bof…

Les algorithmes sont des lignes de calculs qui peuvent être assez subtils pour calculer les conséquences d’une action et décider entre deux décisions laquelle est la meilleure ou la moins catastrophique. En philosophie cela s’appelle L’utilitarisme ; philosophie anglo-saxonne dont les représentants les plus célèbres furent Jeremy Bentham (18e siècle) et John Stuart Mill (19e siècle). La base de cette analyse est qu’une action est bonne moralement si elle permet d’accéder au plus grand bien-être pour le plus grand nombre de personnes et si elle fait l’équilibre entre la somme de douleur et de plaisir. Dans notre cas présent cela correspond au calcul fait par l’ordinateur de la voiture : il doit estimer ce qui est le plus utile pour la société et ce qui produit le moins de peine en estimant les conséquences de son action. Reste que le bonheur peut ne pas être total si nous sommes soumis à un dilemme : est-il par exemple préférable pour le propriétaire de la voiture de mourir avec tous les membres de sa famille ou garder à tout jamais en tête le petit enfant écrasé ? beurk !

La philosophie a donc anticipé les dilemmes auxquels les constructeurs automobiles font face actuellement. Ainsi une philosophe contemporaine, Philippa Foot (décédée en 2010), imagina un exemple pour expliquer la difficulté du choix moral : supposez que vous êtes conducteur d’un tram. Les freins de celui-ci lâchent dans une descente et vous ne pouvez plus rien contrôler sinon le volant pour vous permettre de tourner. Devant vous cinq personnes sont bloquées dans une voiture. Vous pouvez les éviter si vous tournez à droite sur une voie en travaux, mais dans ce cas vous devez sacrifier un ouvrier qui y travaille. Que faites-vous ? Réponse logique mais tragique : il vaut mieux tuer une personne plutôt que cinq. Tant pis pour l’ouvrier même s’il devient dommage collatéral…

Ce raisonnement est à la portée d’une machine, car elle n’intègre pas un élément fondamental, celui de la valeur d’une action. Car déterminer le bien ne se calcule pas uniquement en tenant compte des conséquences d’une action, mais aussi grâce à un jugement qui qualifie la nature même de l’action. Tuer, par exemple, n’est pas bien. Et si tuer permet de sauver des personnes, pour autant tuer reste une mauvaise action. Le bien et le mal s’articulent autour d’un système de valeur qu’il faudrait intégrer dans l’algorithme de l’ordinateur comme constante mathématique. Mais est-ce possible ? Peut-on traduire du qualitatif en du quantitatif ?
Pour traduire cette difficulté, Philippa Foot continue son exemple en y ajoutant une variation : imaginez maintenant que vous n’êtes pas le conducteur du tramway, mais un témoin sur un pont. Vous apercevez le drame qui se joue et vous avez une solution : en poussant un individu lui aussi sur le pont, il pourra sans doute arrêter le tram et ainsi sauver et les passagers et les ouvriers. Seriez-vous prêts à le faire ? Ne seriez-vous pas réticent à l’idée de commettre un meurtre ? Car ce qui différencie le cas précédent c’est que votre action va entraîner la mort d’un innocent. Avec intention de la donner. Même si c’est pour sauver un plus grand nombre d’individus, cela reste condamnable.
Voilà le genre de constante qu’une voiture doit intégrer dans son calcul. Mais ce qu’elle ne peut analyser, c’est le degré de remords qui peut hanter un individu aux prises avec sa conscience. Ni des dimensions aussi irrationnelles telles que l’amour qu’un père peut ressentir pour ses enfants et qui le pousseront à sacrifier les autres plutôt que les siens.

L’automobile autonome devra, comme l’étymologie du terme nous l’apprend (auto nome vient des mots grecs auto (soi-même) et nomos (lois), être autonome c’est donc se fixer à soi-même ses propres règles), fixer des règles au fur et à mesure que l’imprévisible s’imposera à elle, dans le respect du code de la route. Nous n’osons imaginer la complexité de l’algorithme nécessaire !
Il faudra sans doute intégrer dans ses calculs une autre dimension, celle du devoir. Le devoir fixe ce qui est bien dans l’absolu, au-delà et en-deçà de toutes circonstances particulières, pour être certain que la valeur de notre acte ne soit pas uniquement liée à des circonstances particulières – auquel cas l’algorithme devrait prendre en compte toutes ces variables, et même si la machine peut apprendre au fur et à mesure de ses expériences, cela représente une somme infinie de cas à prendre en compte. Nous pouvons d’ores et déjà proposer avec Kant une solution aux constructeurs automobiles : le célèbre philosophe allemand (1724/1804), qui fit souffrir quelques générations de bacheliers, expliquait qu’un critère permettait de distinguer le bien du mal : agir toujours de telle sorte que son action puisse être une loi universelle, c’est-à-dire que nous puissions désirer que chacun ait la même attitude.

Ainsi tuer ne peut pas être une loi universelle, car si nous pouvons vouloir tuer quelqu’un, nous ne pouvons pas souhaiter en revanche être tué par celui-ci. Donc la voiture, pour revenir au dilemme, ne doit pas choisir entre tuer l’enfant et la famille qui se trouvent à son bord ; elle doit plutôt trouver une solution qui pourrait être désirable par tous. Celle par exemple d’éviter l’enfant et le platane. C’est simple comme bonjour tout compte fait…
Passée cette difficulté, cette autonomie pose dès lors une autre question fondamentale : faut-il confier sa vie à une machine ? Faut-il se priver de la liberté de décision ? Notre réponse va peut-être surprendre, mais elle est positive : entre un individu qui peut faire des choix irrationnels, pris par la boisson et les stupéfiants, dominé par sa bêtise d’un Fangio* sur le retour et une machine qui va calculer le meilleur choix possible sans faire intervenir le moindre affect, mon cœur ne balance pas très longtemps. Il est très vraisemblable que le futur verra chuter le nombre d’accidents sur la route, et le seul argument contre cela est la perte du plaisir de conduire que certains n’oublieront pas de dresser comme un étendard pour s’opposer à cette évolution.

Par Christophe

Laisser un commentaire