Quelle éthique pour la voiture autonome ?

 |   |  1083  mots
Comment répartir la responsabilité en cas d'accident avec une voiture autonome ? Faut-il sanctionner le consommateur qui s'était orienté vers l'acquisition d'une voiture automatisée, ou qui s'était mis en mode de conduite autonome avant que ne se produise l'accident ? Faut-il blâmer la défaillance du constructeur automobile qui n'a pas pu prévoir les algorithmes de conduite susceptibles de l'éviter ?
Comment répartir la responsabilité en cas d'accident avec une voiture autonome ? Faut-il sanctionner le consommateur qui s'était orienté vers l'acquisition d'une voiture automatisée, ou qui s'était mis en mode de conduite autonome avant que ne se produise l'accident ? Faut-il blâmer la défaillance du constructeur automobile qui n'a pas pu prévoir les algorithmes de conduite susceptibles de l'éviter ? (Crédits : Youtube/Waymo. Capture d'écran.)
Au-delà des obstacles techniques et juridiques, la question des choix éthiques imposés à l'algorithme gouvernant la voiture autonome est posée. Par David Doat, maître de conférences et chercheur au laboratoire ETHICS à l'Université Catholique de Lille, Rustam Romaniuc, chargé de recherche au laboratoire ETHICS à l'Université Catholique de Lille et Nicolas Vaillant, directeur du laboratoire ETHICS à l'Université Catholique de Lille.

La voiture autonome n'est plus un rêve lointain, sa commercialisation est présentée comme imminente. Les grands constructeurs automobiles français et étrangers ne s'y sont pas trompés. Tous sont désormais engagés dans une course industrielle sans précédent pour conquérir les parts de marchés de ce nouvel eldorado qui s'annonce. Pouvoir détourner le regard de la route, discuter en toute tranquillité, siester, lire, regarder sa série préférée sur l'autoroute du soleil, ou centrer toute son attention sur les derniers éléments d'un dossier à parcourir avant d'arriver au travail... qui ne cèderait pas, en effet, aux charmes d'une voiture autonome dans des conditions de sécurité garanties ? Quand on sait que 90% des accidents de la route sont dus à des erreurs humaines qu'une voiture autonome pourra aisément éviter à l'avenir, l'Etat ne ferait-t-il pas tout pour encourager les ménages à en acquérir une pour des raisons de sécurité et de santé publique ?

Obstacles techniques et juridiques

Cependant, nous n'y sommes pas encore. Tout d'abord, des obstacles techniques et juridiques doivent toujours être résolus. De récents incidents de circulation aux Etats-Unis impliquant des voitures semi-autonomes ou autonomes (affaires Tesla, Uber) démontrent que la sécurité que les consommateurs attendent de ce type de véhicule n'est pas encore optimale. Au-delà du défi technologique, la difficulté est aussi juridique : comment répartir la responsabilité en cas d'accident ? Faut-il sanctionner le consommateur qui s'était orienté vers l'acquisition d'une voiture automatisée, ou qui s'était mis en mode de conduite autonome avant que ne se produise l'accident ? Faut-il blâmer la défaillance du constructeur automobile qui n'a pas pu prévoir les algorithmes de conduite susceptibles de l'éviter ? A moins que la responsabilité de l'accident ne doive être finalement reportée sur le conducteur qui n'a pas su reprendre à temps le contrôle de sa voiture ? Peu doutent, au sein des mondes scientifique et industriel, que ces obstacles seront tôt ou tard relevés par l'adaptation des cadres juridiques et de nouveaux progrès technologiques.

Quelle éthique?

Il reste toutefois à traiter d'une question redoutable d'ordre éthique et politique. Si une voiture autonome se trouvait plongée sur la route dans une situation telle que son issue engageait inévitablement le pronostic vital, soit des usagers de la voiture, soit des passants alentour, laquelle de ces deux populations la voiture autonome devrait-elle protéger prioritairement ? A vrai dire, ce n'est pas la voiture autonome qui choisira, mais des agents humains qui auront déterminé certains algorithmes et critères d'après lesquels elle déterminera son comportement en faveur d'une orientation ou d'une autre. Mais qui dispose da la légitimité pour déterminer ces critères ? Quels seraient-ils et comment les justifier ?

Imaginez-vous la situation suivante : vous êtes au volant de votre voiture quand cinq piétons traversent soudainement au feu rouge. Donnez-vous un coup de volant pour les éviter en sachant que cette décision pourrait vous coûter la vie, ou les percutez-vous pour épargner votre vie ? Décideriez-vous différemment si les piétons traversaient au feu vert ou étaient des enfants ? Heureusement, nous ne sommes pas confrontés à ce type de dilemme fréquemment, mais il n'est pas non plus impossible qu'un jour on le soit. Si cela devait arriver, certains choisiraient consciemment de se sacrifier pour sauver plus de vies, alors que d'autres choisiraient toujours de privilégier leur sécurité. Avec l'arrivée des voitures autonomes sur nos routes, ce n'est plus le conducteur de la voiture qui décidera mais celui ou celle qui a la lourde responsabilité de programmer l'algorithme. La question qui se pose est alors de savoir qui doit prendre cette décision : le programmateur, le législateur, le constructeur de l'automobile, ou l'acheteur ? Et comment intègre-t-on le bien-être des piétons ?

Une expérience

Ce dilemme cruel n'est pas simple à régler. Les philosophes les plus connus s'y sont intéressés sans arriver à un consensus puisque les règles éthiques dépendent souvent du contexte. Les chercheurs du laboratoire Ethics (EA 7446) à l'Université catholique de Lille ont mis en place une expérience in vivo qui avait pour objectif d'étudier comment les jugements éthiques sont influencés par le contexte dans lequel la décision est prise : par exemple, décide-t-on différemment selon qu'on est occupant de la voiture ou législateur ?  L'expérience a été réalisée lors du colloque « Prospective et éthique aux frontières de l'inconnu », organisé à l'Université catholique de Lille les 13 et 14 mars 2017.

La méthode

Les 80 participants au colloque ont été répartis de manière aléatoire en 2 groupes : occupant de la voiture autonome et législateur. Ils devaient ensuite indiquer à l'ordinateur leur opinion devant des situations variées sur le nombre de piétons et sur le type de la population piétonne : enfants, personnes âgées, femmes enceintes, cadres, voleurs, ou encore piétons qui traversent au feu rouge. Leurs choix ont été anonymes et recueillis au travers d'un réseau informatique.

Résultats

Sans surprise, les résultats montrent qu'il y a une différence nette entre les réponses données par les occupants de la voiture et celles données par le législateur : le législateur décide de sacrifier l'occupant de la voiture pour sauver plus de vies, alors que l'occupant de la voiture n'est quasiment jamais prêt à se sacrifier pour les autres. Les réponses dépendent aussi de la population qui traverse la rue : ce sont les enfants qui sont le plus sauvent sauvés aux dépens de l'occupant de la voiture alors que les personnes âgées et les piétons qui traversent au feu rouge (pour les piétons) sont le plus souvent sacrifiés même par le législateur.

L'éthique est au cœur des progrès technologiques

Cette mise en situation expérimentale, qui est une réplication d'une étude publiée dans Science[1], permet de mieux illustrer les enjeux éthiques au cœur des progrès technologiques du XXIe siècle. Elle soulève notamment la question de savoir quelle règle éthique devrait contenir l'algorithme de la voiture autonome. La réponse à cette question dépend grandement de l'institution à qui on veut faire supporter la responsabilité.

[1] Bonnefon, J. F., Shariff, A., & Rahwan, I. (2016). The social dilemma of autonomous vehicles. Science, 352, 1573-1576.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :