Accueil Des avis Accident de voiture avec conduite par Uber: ai-nous échoué?

Accident de voiture avec conduite par Uber: ai-nous échoué?

Table des matières:

Vidéo: 20h France 2 TV accident tesla voiture autonome juillet 2016 (Novembre 2024)

Vidéo: 20h France 2 TV accident tesla voiture autonome juillet 2016 (Novembre 2024)
Anonim

Le 12 mars, le MIT Technology Review publiait un article comme suit: "Nous sommes en 2023, et des voitures autonomes conduisent enfin dans les rues de notre ville. Pour la première fois, l'un d'entre eux a frappé et tué un piéton, avec énorme couverture médiatique. Un procès très médiatisé est probable, mais quelles lois devraient s'appliquer?"

Tout était correct dans la prédiction, à l'exception de la date. Exactement une semaine après la publication de l'article, un automobiliste Uber a frappé et tué un piéton à Tempe, en Arizona, alors qu'il fonctionnait en mode autonome.

Bien que l’incident fasse toujours l’objet d’une enquête, le tumulte qui s’en est suivi indique à quel point nous sommes loin d’intégrer avec succès l’intelligence artificielle dans nos tâches et décisions critiques.

Dans de nombreux cas, le problème ne vient pas de l'IA, mais de nos attentes et de notre compréhension. Selon Wired , près de 40 000 personnes sont mortes dans des accidents de la route l'an dernier aux États-Unis, dont 6 000 piétons. Mais très peu (le cas échéant) ont fait les gros titres comme l'incident d'Uber.

L’une des raisons pour lesquelles le crash d’Uber a provoqué un tel bouleversement est que nous attendons généralement beaucoup des nouvelles technologies, même lorsqu'elles sont encore en développement. Dans l'illusion que les mathématiques pures sont le moteur des algorithmes d'intelligence artificielle, nous avons tendance à faire confiance à leurs décisions et à être choqués lorsqu'ils commettent des erreurs.

Même les conducteurs de sécurité au volant de voitures autonomes baissent les gardes. Des images de l'incident d'Uber ont montré que le conducteur était distrait et baissait les yeux quelques secondes avant l'accident.

En 2016, le conducteur d'un modèle Tesla S fonctionnant en mode de pilote automatique est décédé après que le véhicule se soit écrasé dans un camion. Une enquête a révélé que le conducteur regardait peut-être un film de Harry Potter au moment de la collision.

Les attentes en matière de perfection sont grandes et les déceptions sont fortes. Les critiques ont rapidement remis en question tout le projet de voiture autonome d'Uber après l'incident. la société a temporairement suspendu les essais de véhicules auto-conduits à la suite.

AI n'est pas humain

Parmi les critiques qui ont suivi l'accident, il y avait un conducteur humain qui aurait facilement pu éviter l'incident.

"Elle ne sautait pas des buissons. Elle avait clairement progressé sur plusieurs voies de circulation, qui auraient dû être contrôlées par le système", a déclaré un expert à CNN.

Elle a raison. Un conducteur humain expérimenté l'aurait probablement repérée. Mais les algorithmes d'IA ne sont pas humains.

Les algorithmes d'apprentissage en profondeur utilisés dans les voitures autonomes utilisent de nombreux exemples pour "apprendre" les règles de leur domaine. Lorsqu'ils passent du temps sur la route, ils classent les informations qu'ils collectent et apprennent à gérer différentes situations. Mais cela ne signifie pas nécessairement qu'ils utilisent le même processus de prise de décision que les facteurs humains. C’est pourquoi, dans certaines situations, ils pourraient avoir de meilleurs résultats que les humains et échouer dans ceux qui semblent banaux pour l’homme.

Un exemple parfait est l'algorithme de classification des images, qui apprend à reconnaître des images en analysant des millions de photos étiquetées. Au fil des ans, la classification des images est devenue extrêmement efficace et surpasse les humains dans de nombreux contextes. Cela ne signifie pas que les algorithmes comprennent le contexte des images de la même manière que les humains.

Par exemple, des recherches effectuées par des experts de Microsoft et de l’Université de Stanford ont révélé qu’un algorithme d’apprentissage en profondeur utilisant des images de chats blancs était convaincu de la conviction qu’une photo d’un chien blanc représentait un chat, une erreur qu’un enfant humain pourrait facilement éviter. Et dans un cas infâme, l'algorithme de classification des images de Google a classé par erreur les personnes à la peau foncée parmi les gorilles.

Ce sont des "cas extrêmes", des situations pour lesquelles les algorithmes d'intelligence artificielle n'ont pas été formés, généralement en raison d'un manque de données. L’accident d’Uber fait toujours l’objet d’une enquête, mais certains experts de l’intelligence artificielle suggèrent qu’il pourrait s’agir d’un autre cas.

L'apprentissage en profondeur doit surmonter de nombreux défis avant de pouvoir être appliqué dans des situations critiques. Mais ses échecs ne devraient pas nous décourager. Nous devons ajuster nos perceptions et nos attentes et accepter le fait que chaque technologie de pointe échoue au cours de son évolution. L'intelligence artificielle n'est pas différente.

Accident de voiture avec conduite par Uber: ai-nous échoué?