Table des matières:
- Deep Learning s'appuie trop sur les données
- L'apprentissage en profondeur n'est pas flexible
- L'apprentissage en profondeur est opaque
- Deep Learning pourrait être overhyped
Vidéo: Il m'ignore sans raisons : À quoi pense-t-il ? (Novembre 2024)
En 2012, un groupe de scientifiques de l'Université de Toronto a réalisé une avancée décisive dans la classification des images.
À ImageNet, une compétition annuelle d'intelligence artificielle (IA) dans laquelle les candidats rivalisent pour créer l'algorithme de classification d'images le plus précis, l'équipe de Toronto a lancé AlexNet ", qui a battu le terrain avec une énorme marge de 10, 8 points de pourcentage… 41 pour cent de mieux que le prochain meilleur ", selon Quartz.
Beaucoup ont loué l'apprentissage en profondeur et son superset, l'apprentissage machine, en tant que technologie polyvalente de notre époque et plus profonde que l'électricité et le feu. D'autres, cependant, avertissent que l'apprentissage en profondeur finira par être le meilleur moyen pour l'homme de chaque tâche et deviendra le dernier tueur de travail. Et l'explosion des applications et des services générés par l'apprentissage en profondeur a ravivé les craintes d'une apocalypse de l'IA, dans laquelle des ordinateurs super-intelligents conquièrent la planète et poussent les humains vers l'esclavage ou l'extinction.
Mais malgré le battage médiatique, l’apprentissage en profondeur présente certains défauts qui peuvent l’empêcher de réaliser certaines de ses promesses - à la fois positives et négatives.
Deep Learning s'appuie trop sur les données
L'apprentissage en profondeur et les réseaux de neurones profonds, qui constituent la structure sous-jacente, sont souvent comparés au cerveau humain. Mais notre esprit peut apprendre des concepts et prendre des décisions avec très peu de données. l'apprentissage en profondeur nécessite des tonnes d'échantillons pour effectuer la tâche la plus simple.
L’apprentissage en profondeur est une technique complexe qui mappe les intrants aux extrants en trouvant des modèles communs dans les données étiquetées et en utilisant les connaissances pour classer d’autres échantillons de données. Par exemple, donnez à une application d'apprentissage en profondeur suffisamment d'images de chats et elle sera en mesure de détecter si une photo contient un chat. De même, lorsqu'un algorithme d'apprentissage en profondeur ingère suffisamment d'échantillons sonores de mots et de phrases différents, il peut reconnaître et transcrire la parole.
Mais cette approche n’est efficace que lorsque vous avez beaucoup de données de qualité pour alimenter vos algorithmes. Sinon, les algorithmes d'apprentissage en profondeur peuvent faire des erreurs folles (comme prendre un fusil pour un hélicoptère). Lorsque leurs données ne sont pas inclusives et variées, les algorithmes d’apprentissage en profondeur ont même affiché un comportement raciste et sexiste.
La confiance dans les données pose également un problème de centralisation. Parce qu'elles ont accès à de grandes quantités de données, des sociétés telles que Google et Amazon sont mieux à même de développer des applications d'apprentissage en profondeur hautement efficaces que les startups disposant de moins de ressources. La centralisation de l'IA dans quelques entreprises pourrait entraver l'innovation et donner trop d'influence à ces entreprises sur leurs utilisateurs.
L'apprentissage en profondeur n'est pas flexible
Les humains peuvent apprendre des concepts abstraits et les appliquer à diverses situations. Nous faisons cela tout le temps. Par exemple, lorsque vous jouez pour la première fois à un jeu d'ordinateur tel que Mario Bros., vous pouvez immédiatement utiliser des connaissances du monde réel, telles que la nécessité de sauter par-dessus des fosses ou d'esquiver des balles enflammées. Vous pouvez ensuite appliquer vos connaissances du jeu à d'autres versions de Mario, telles que Super Mario Odyssey, ou à d'autres jeux comportant des mécanismes similaires, tels que Donkey Kong Country et Crash Bandicoot.
Les applications d'intelligence artificielle doivent toutefois tout apprendre à partir de zéro. Un aperçu de la façon dont un algorithme d’apprentissage en profondeur apprend à jouer Mario montre à quel point le processus d’apprentissage d’une IA est différent de celui des humains. Il commence essentiellement à ne rien savoir de son environnement et apprend progressivement à interagir avec les différents éléments. Mais les connaissances acquises en jouant à Mario ne servent que le domaine étroit de ce jeu et ne sont pas transférables à d’autres jeux, même à d’autres jeux de Mario.
Ce manque de compréhension conceptuelle et abstraite maintient les applications d'apprentissage en profondeur centrées sur des tâches limitées et empêche le développement de l'intelligence artificielle générale, le type d'intelligence artificielle capable de prendre des décisions intellectuelles comme le font les humains. Ce n'est pas nécessairement une faiblesse. Certains experts affirment que la création d'une intelligence artificielle générale est un objectif inutile. Mais c’est certainement une limitation par rapport au cerveau humain.
L'apprentissage en profondeur est opaque
Contrairement aux logiciels traditionnels, pour lesquels les programmeurs définissent les règles, les applications d'apprentissage approfondi créent leurs propres règles en traitant et en analysant les données de test. Par conséquent, personne ne sait vraiment comment ils parviennent à des conclusions et à des décisions. Même les développeurs d'algorithmes d'apprentissage en profondeur se retrouvent souvent perplexes devant les résultats de leurs créations.
Ce manque de transparence pourrait constituer un obstacle majeur pour l'IA et l'apprentissage en profondeur, car la technologie tente de trouver sa place dans des domaines sensibles tels que le traitement des patients, l'application de la loi et les voitures autonomes. Les algorithmes d'apprentissage en profondeur sont peut-être moins enclins à commettre des erreurs que les humains, mais lorsqu'ils commettent des erreurs, les raisons de ces erreurs doivent être explicables. Si nous ne pouvons pas comprendre le fonctionnement de nos applications d'intelligence artificielle, nous ne pourrons pas leur confier des tâches critiques.
Deep Learning pourrait être overhyped
L'apprentissage en profondeur a déjà fait ses preuves dans de nombreux domaines et continuera à transformer notre façon de faire. Malgré ses faiblesses et ses limites, l’apprentissage en profondeur ne nous a pas manqué. Mais nous devons ajuster nos attentes.
Comme le met en garde Gary Marcus, spécialiste de la recherche en intelligence artificielle, le surmenage de la technologie pourrait conduire à un autre "hiver de l'IA" - une période où des attentes trop élevées et des performances insuffisantes entraînent une déception et un manque d'intérêt généralisés.
Marcus suggère que l'apprentissage en profondeur n'est pas "un solvant universel, mais un outil parmi tant d'autres", ce qui signifie que même si nous continuons à explorer les possibilités offertes par l'apprentissage en profondeur, nous devrions également examiner d'autres approches fondamentalement différentes de la création d'applications d'IA.
Même le professeur Geoffrey Hinton, pionnier du travail qui a conduit à la révolution de l'apprentissage en profondeur, estime qu'il faudra probablement inventer des méthodes entièrement nouvelles. "L'avenir dépend d'un étudiant diplômé qui est profondément méfiant de tout ce que j'ai dit", a-t-il déclaré à Axios.