Accueil Réflexion prospective Les unités de traitement du tenseur de Google changent les règles de l'apprentissage automatique

Les unités de traitement du tenseur de Google changent les règles de l'apprentissage automatique

Vidéo: Guide des Médicaments d'Officine 2019 par Maximilien DEBERLY, 145 pages, 1680 médicaments (Vidéo) (Novembre 2024)

Vidéo: Guide des Médicaments d'Officine 2019 par Maximilien DEBERLY, 145 pages, 1680 médicaments (Vidéo) (Novembre 2024)
Anonim

L'une des annonces les plus intéressantes - et inattendues - que Google a faites lors de la conférence des développeurs d'E / S la semaine dernière a été la conception et la mise en œuvre de ses propres puces pour l'apprentissage automatique. Pendant son discours, le PDG de Google, Sundar Pichai, a présenté ce qu’il a appelé les unités de traitement Tensor Processing Units (TPU), affirmant que la société les utilisait dans ses machines AlphaGo, qui avaient battu le champion Go, Lee Sedol.

"Les TPU offrent des performances par ordre de grandeur supérieures à celles des FPGA et des GPU commerciaux", a déclaré Pichai. Norm Jouppi, ingénieur en électronique chez Google, a expliqué dans un article de blog qu'un TPU est un ASIC personnalisé (circuit intégré à application spécifique). En d’autres termes, il s’agit d’une puce spécialement conçue pour exécuter l’apprentissage automatique et spécialement conçue pour TensorFlow, le cadre d’apprentissage automatique de Google.

Image

Dans son article, Jouppi a déclaré qu'il était "plus tolérant" en termes de précision de calcul réduite, ce qui signifie qu'il nécessite moins de transistors par opération. Cela permet à Google d’obtenir plus d’opérations par seconde, ce qui permet aux utilisateurs d’obtenir des résultats plus rapidement. Selon lui, une carte avec un TPU peut être insérée dans un lecteur de disque dur dans les racks de son centre de données et a montré une image des racks de serveurs remplis de TPU, qui, a-t-il dit, ont été utilisés dans les machines AlphaGo de la société.

De plus, M. Jouppi a déclaré que les TPU travaillaient déjà sur un certain nombre d'applications chez Google, notamment RankBrain, utilisé pour améliorer la pertinence des résultats de recherche, et Street View, pour améliorer la précision et la qualité des cartes et de la navigation.

Lors d’une conférence de presse, le vice-président de l’Infrastructure technique de Google, Urs Hölzle, a confirmé que le TPU fonctionnait selon un calcul mathématique sur un nombre entier de 8 bits, au lieu des calculs à virgule flottante de précision supérieure pour lesquels sont conçus la plupart des processeurs et des GPU actuels. La plupart des algorithmes d’apprentissage automatique peuvent fonctionner sans problème avec des données de résolution inférieure, ce qui signifie que la puce peut gérer davantage d’opérations dans une zone donnée et traiter efficacement des modèles plus complexes. Ce n'est pas une idée nouvelle, le module Nvidia Drive PX 2, annoncé plus tôt cette année au CES, est capable de 8 téraflops avec une précision de virgule flottante de 32 bits, mais atteint 24 "téraops" d'apprentissage en profondeur (le terme de l'entreprise math entier entier -bits).

Bien que Hölzle ait refusé d'entrer dans les détails, des rapports indiquent qu'il a confirmé que Google utilise à la fois des TPU et des GPU. Il a déclaré que cela continuerait pendant un certain temps, mais a suggéré que Google considère les GPU comme trop généraux, préférant une puce plus optimisée pour l'apprentissage automatique. Il a ajouté que la société publierait ultérieurement un document décrivant les avantages de la puce, tout en précisant que ceux-ci sont conçus pour un usage interne uniquement et non pour la vente à d'autres sociétés. Une autre application qu'il a décrite utilisait les puces pour gérer une partie de l'informatique derrière le moteur de reconnaissance vocale utilisé sur le téléphone Android.

Le choix d'utiliser un ASIC est un pari intéressant de Google. Les progrès les plus importants en matière d'apprentissage automatique de ces dernières années - la technologie à l'origine de la grande poussée en faveur des réseaux neuronaux profonds - ont été l'adoption de GPU, en particulier de la ligne Nvidia Tesla, pour former ces modèles. Plus récemment, Intel a acheté Altera, l'un des principaux fabricants de FPGA (matrices de portes programmables par l'utilisateur), qui se situent quelque part au milieu. ils ne sont pas aussi polyvalents que les GPU ou conçus spécifiquement pour TensorFlow que la puce de Google, mais ils peuvent être programmés pour effectuer diverses tâches. Microsoft expérimente les FPGA Altera pour un apprentissage en profondeur. IBM développe sa puce TrueNorth Neurosynaptic spécialement conçue pour les réseaux de neurones, qui a récemment commencé à être utilisée dans diverses applications. Cadence (Tensilica), Freescale et Synopsys poussent leurs DSP (processeurs de signaux numériques) pour exécuter ces modèles; Mobileye et NXP ont récemment annoncé des puces conçues spécifiquement pour les ADAS et les voitures autonomes; et plusieurs sociétés plus petites, dont Movidius et Nervana, ont annoncé des projets de puces spécialement conçues pour l'IA.

Il est trop tôt pour savoir quelle approche sera la meilleure à long terme, mais le fait de disposer d'options très différentes signifie que nous serons probablement confrontés à une concurrence intéressante dans les prochaines années.

Les unités de traitement du tenseur de Google changent les règles de l'apprentissage automatique