Table des matières:
- Lens, Assistant et Photo utilisent les fonctionnalités AI
- Centres de données AI-First et nouveaux outils de développement
Vidéo: Découvrez les outils G Suite et les services de GoWizYou (Novembre 2024)
Pour moi, le thème principal de la conférence Google I / O de la semaine dernière était "la démocratisation de l'IA" - en d'autres termes, rendre l'IA accessible à la fois aux utilisateurs finaux via son utilisation dans une variété de services Google et aux développeurs via de nouveaux outils, programmes, et même du matériel conçu autour du framework TensorFlow AI de Google.
Le PDG de Google, Sundar Pichai, a commencé la conférence par une allocution dans laquelle il a de nouveau souligné que la société était en train de passer d'une approche d'abord mobile à une première pour AI, à l'instar de ce qu'il avait déclaré l'année dernière.
Il a ajouté que Google "repensait tous ses produits et appliquait l'apprentissage automatique et l'IA au service des problèmes des utilisateurs". Il a expliqué que les algorithmes d'apprentissage automatique avaient déjà une influence sur le classement des différents résultats de recherche et sur la manière dont Street View reconnaissait désormais automatiquement les signes. D'autres services sont en train de devenir plus intelligents grâce à l'IA, a-t-il expliqué, notamment sur la manière dont Google Home prend désormais en charge plusieurs utilisateurs et sur la manière dont Gmail déploie désormais une fonctionnalité de "réponse intelligente" dans laquelle il suggère automatiquement les réponses aux courriers électroniques.
À cette fin, il a fait un certain nombre d'annonces concernant les produits d'intelligence artificielle, tant pour les consommateurs que pour les développeurs.
Lens, Assistant et Photo utilisent les fonctionnalités AI
Pour les utilisateurs finaux, le plus visible de ces nouveaux efforts est Google Lens, un ensemble de fonctionnalités informatiques basées sur la vision qui peuvent comprendre ce que vous voyez et agir, à la fois dans l'Assistant Google et dans Google Photos.
Par exemple, il a expliqué comment prendre une photo d'une fleur et comment Google Lens peut maintenant l'identifier. Plus prosaïquement, il peut prendre en photo un nom d'utilisateur et un mot de passe pour le Wi-Fi, puis comprendre automatiquement que vous souhaitez vous connecter et le faire pour vous. Autres exemples: prendre une photo de l'extérieur d'un restaurant et laisser le logiciel le comprendre, puis vous montrer des critiques d'utilisateurs et des menus. Ce n’est pas tout à fait nouveau, mais j’imagine que cela sera très utile - le genre de chose que nous utiliserons tous pratiquement par cœur dans quelques années. Google dit que cela se déroulera dans quelques mois.
L’assistant Google continue de faire preuve d’intelligence et intégrera l’objectif de Google, bien que la plus grande nouvelle à ce sujet est que l’assistant arrive maintenant sur l’iPhone.
La populaire application Google Photos propose également un certain nombre d'autres nouvelles fonctionnalités axées sur l'IA, notamment le "partage suggéré", dans laquelle elle sélectionne automatiquement les meilleures images et vous suggère de les partager avec les personnes présentes. Google Photos ajoute également une fonctionnalité qui vous permettra de partager tout ou partie de votre
Centres de données AI-First et nouveaux outils de développement
Sur le plan interne, Pichai a expliqué à quel point la société "repensait" son architecture informatique pour créer "des centres de données à la première intelligence artificielle". Il a ajouté que Google utilisait ses unités de traitement de tenseur actuelles pour tous ses services, de la recherche de base à la reconnaissance de la parole, en passant par la concurrence AlphaGo.
J'ai été particulièrement intrigué par le lancement par la société d'une nouvelle version de son TPU 2.0, qui, selon Pichai, était capable d'atteindre 180 téraflops (180 trillions d'opérations en virgule flottante par seconde) par carte à 4 puces, soit 11, 5 pétaflops dans chaque 64 de ces conseils. Celles-ci sont désormais disponibles pour les développeurs en tant que "TPU en nuage" sur le moteur Google Cloud, et la société a annoncé qu'elle proposerait 1 000 TPU en nuage aux chercheurs en apprentissage automatique via son nouveau nuage de recherche TensorFlow.
Cela fait partie de la pression croissante exercée sur TensorFlow, le cadre d’apprentissage de la machine open source de la société destiné aux développeurs, et la conférence a consisté en une série de sessions visant à ce que davantage de développeurs utilisent ce cadre. TensorFlow semble être le plus populaire des frameworks d’apprentissage automatique, mais ce n’est qu’un choix parmi de nombreux autres. (D'autres incluent Caffe, poussé par Facebook, et MXNet, poussé par Amazon Web Services.)
Je suis allé à une session sur "TensorFlow pour non-experts" destinée à évangéliser le cadre et les
Parce que développer de tels services est très difficile, Pichai a passé beaucoup de temps à parler d '"AutoML", une approche utilisant des réseaux neuronaux pour concevoir de nouveaux réseaux neuronaux. Il a ajouté que Google espérait qu'AutoML s'appuierait sur quelques docteurs actuels et permettrait à des centaines de milliers de développeurs de concevoir de nouveaux réseaux de neurones répondant à leurs besoins spécifiques d'ici trois à cinq ans.
Cela fait partie d'un effort plus vaste appelé Google.ai visant à amener l'IA à un plus grand nombre de personnes. Pichai a évoqué diverses initiatives visant à utiliser l'IA pour améliorer les soins de santé. Il a parlé de la pathologie et de la détection du cancer, du séquençage de l'ADN et de la découverte de molécules.
Poursuivant sur le thème, Dave Burke, responsable de l'ingénierie pour Android, a annoncé une nouvelle version de TensorFlow optimisée pour mobile, appelée TensorFlow lite. La nouvelle bibliothèque permettra aux développeurs de créer des modèles d’apprentissage approfondi conçus pour les smartphones Android. Il a expliqué comment les concepteurs de processeurs mobiles travaillaient sur des accélérateurs spécifiques dans leurs processeurs ou sur des DSP conçus pour l’inférence de réseau neuronal et même la formation.
Fei Fei Li, professeure à Stanford et directrice de la recherche sur l'IA chez Google, a déclaré qu'elle s'était jointe à Google "pour que tout le monde puisse tirer parti de l'IA pour rester compétitifs et résoudre les problèmes qui comptent le plus pour eux".
Elle a beaucoup parlé de "Démocratiser l'intelligence artificielle", y compris des divers outils que Google met à la disposition des développeurs pour des applications spécifiques, telles que la vision, la parole, la traduction, le langage naturel et l'intelligence vidéo, ainsi que pour créer des outils permettant de créer vos propres modèles. TensorFlow, qui est plus facile à utiliser avec davantage d’API de haut niveau.
Elle a expliqué comment les développeurs pourront désormais utiliser des processeurs, des GPUS ou des TPU sur le moteur de calcul Google. Elle a donné l'exemple de l'ampleur de l'amélioration de la vitesse de certains modèles sur les TPU, soulignant que les implications en termes de recherche sont importantes.
Faisant écho à Pichai, elle a vanté le nouveau nuage de recherche TensorFlow, affirmant que les étudiants et les utilisateurs de Kaggle devraient demander à l’utiliser. et a conclu en déclarant que la société avait créé son équipe d'intelligence artificielle pour rendre l'IA démocratique, pour vous rencontrer où vous êtes, avec les outils d'intelligence artificielle les plus puissants de Google, et pour partager le chemin que vous avez utilisé.