Vidéo: Daech, le dilemme de la justice | ARTE (Novembre 2024)
La semaine dernière, la voiture autonome de Google n'a pas mis longtemps à comprendre que la technologie n'était pas seulement prête pour la route, mais que, dans certains cas, elle prenait de meilleures décisions que les conducteurs humains - ralentir et céder le passage aux cyclistes, par exemple.
À titre d'exemple, la technologie d'auto-conduite ajoute une nouvelle tournure au dilemme philosophique centenaire connu sous le nom de "problème du trolley". Dans ce scénario, une personne doit décider si elle doit tirer sur un levier à une intersection en Y et traverser une personne liée à la voie afin de sauver cinq personnes attachées à la voie adjacente.
Pour les voitures autonomes, cela a été transformé en "problème de tunnel". Imaginons qu'un véhicule autonome circule sur une route de montagne à voie unique et soit sur le point d'entrer dans un tunnel, lorsqu'un enfant le traverse par inadvertance juste devant l'entrée, de sorte que la voiture doit prendre une décision à la fraction de seconde. Est-ce qu'il continue tout droit et frappe l'enfant? Ou est-ce qu'il dévie et frappe le tunnel, blessant ou tuant les occupants de la voiture?
Le lendemain, après avoir pris place dans la voiture autonome de Google à Mountain View, en Californie, j'ai participé à un événement organisé dans les installations de recherche et de développement nord-américaines de Mercedes-Benz, à Sunnyvale. Parmi les sujets abordés tout au long de la journée, le professeur Stanford et responsable du programme Revs de l'université, Chris Gerdes, a présenté un exposé sur l'éthique et les voitures autonomes.
Gerdes a révélé que Revs collabore avec le département de philosophie de Stanford sur des questions éthiques impliquant des véhicules autonomes, tandis que l'université a également commencé à effectuer une série de tests pour déterminer le type de décisions qu'une voiture robotique peut prendre dans des situations critiques.
Quand la philosophie prend le volant
Dans son exposé, Gerdes a expliqué pourquoi nous avions besoin de philosophes pour aider à étudier ces questions. Il a souligné que les problèmes éthiques posés par les voitures autonomes constituent une cible mouvante et qu’ils «n’ont pas de limites», bien qu’il incombe aux ingénieurs de «lier le problème».
Pour ce faire et faire évoluer l'éthique de la technologie de conduite autonome au-delà d'une simple discussion académique, Revs mène des expériences sur le véhicule de test x1 de Stanford en mettant des obstacles sur la route. Il a noté que le fait de placer différentes priorités dans le programme logiciel des véhicules avait conduit à des "comportements très différents".
Gerdes a affirmé que cette programmation naissante basée sur l'éthique d'un logiciel d'auto-conduite pourrait devenir une "exigence essentielle" de la technologie - et non pas simplement un sujet discuté dans les tours d'ivoire. Et il a ajouté que les constructeurs automobiles ne peuvent se procurer d’éthique auprès d’un fournisseur de «premier niveau», comme une pompe à essence ou un écran intégré au tableau de bord. Le récent scandale de VW Dieselgate l'a certainement démontré.
Des conducteurs humains expérimentés sont programmés depuis des années pour prendre des décisions en une fraction de seconde - et ils ne prennent toujours pas les bonnes décisions. Mais après avoir constaté comment les véhicules autonomes de Google réagissent aux décisions quotidiennes et entendu le travail effectué par Stanford Revs et le département de philosophie de l'école, je parie que les voitures seront finalement plus intelligentes.