Vidéo: Firebase. Подключаем Analytics. [RU, Android] / Мобильный разработчик (Novembre 2024)
À certains égards, nous avons vu deux googles différents à la conférence des développeurs d’E / S de la société à Mountain View, qui s’est ouverte hier. L’un d’eux était Google, confiant, élargissant son avance dans les domaines de la recherche et du mobile et ses atouts en matière d’apprentissage automatique à d’autres marchés adjacents, tout en proposant d’impressionnants nouveaux outils aux développeurs. L'autre était un Google moins arrogant qui rattrapait son retard sur le marché des assistants de conversation, des applications de messagerie et de la réalité virtuelle. La plupart des gros titres sont allés dans cette dernière catégorie, où les changements sont plus tangibles. Mais pour la plupart des développeurs, les extensions et modifications apportées à Android et aux outils de développement qui l’entourent auront probablement un impact plus immédiat.
( Sundar Pichai )
L’apprentissage automatique était le thème principal de la conférence. Le PDG de Google, Sundar Pichai, a ouvert le discours liminaire de la conférence en expliquant comment la société évoluait pour chercher à utiliser davantage son investissement de longue date dans l’apprentissage automatique et le traitement automatique du langage naturel. Il a déclaré que Google avait fait d'énormes progrès en matière de reconnaissance vocale, les requêtes vocales représentant désormais 20% des recherches aux États-Unis. dans la reconnaissance d'image, à la fois dans le moteur de recherche et dans Photos; et en traduction, qui prend désormais en charge 100 langues différentes et traduit 140 milliards de mots par jour. Globalement, a-t-il déclaré, Google dispose d'un "graphe de connaissances" de 1 milliard d'entités: personnes, lieux et objets. Il a ensuite présenté une variété de nouveaux produits et services pouvant utiliser ces connaissances.
Le plus évident est le nouvel assistant Google, qui semble être un assistant beaucoup plus conversationnel que le service Google Now, conçu pour fournir un dialogue à double sens axé sur l’obtention de résultats concrets, la compréhension du contenu et du contexte. Il y avait un certain nombre de démonstrations intéressantes dans lesquelles l'assistant était capable de répondre à des questions et de vous aider à choisir un film à regarder ou un restaurant où dîner et à faire les réservations.
Cela paraissait plutôt bon, mais sur le plan conceptuel, cela ressemble beaucoup aux autres assistants de conversation que nous avons vus, tels que Siri d’Apple, Cortana de Microsoft et Alexa d’Amazon. En effet, les démos m'ont rappelé les premières démos de Cortana.
Pichai a défendu l'idée que la recherche évolue, en déclarant "il ne suffit pas de leur donner les liens, nous devons vraiment les aider à faire avancer les choses dans le monde réel". Cela m'a rappelé la poussée derrière Google Now il y a quatre ans, qui a très bien fonctionné pour la société.
( Mario Queiroz )
Cette technologie fera partie d’un nouvel appareil appelé Google Home, où Pichai a bien voulu montrer l’Amazon Echo, qui semble en avoir été l’inspiration. Comme Echo, Home dispose d’un assistant de conversation qui peut jouer de la musique, contrôler plusieurs appareils de la maison et répondre à des questions. Mario Queiroz, vice-président chargé de la gestion des produits, a présenté quelques ajouts intéressants, tels que l'intégration à Chromecast afin de pouvoir "diffuser" de la musique ou d'autres supports sur d'autres enceintes ou sur un écran de télévision.
Ensuite, le directeur de l’ingénierie, Erik Kay, a présenté Allo, essentiellement une plate-forme de discussion en ligne, avec l’assistant Google intégré pour rendre vos conversations plus intelligentes. et Duo, une application d’appel vidéo 1: 1 avec une touche intéressante qui vous permet de voir un aperçu de la vidéo de la personne qui appelle avant de répondre à l’appel. Le concept de robots de discussion au sein d'un service de messagerie (alias "conversations en tant que plate-forme") était une préoccupation majeure de Microsoft Build il y a quelques semaines, et Facebook Messenger le préconise depuis un certain temps. Google a déjà tenté de nombreuses fois dans les médias sociaux et la messagerie - en effet, il vient également d'introduire un outil appelé Spaces pour la connexion lors d'événements - et n'a pas encore eu un grand succès. Bien que ces outils paraissent bien dans les démos sur scène, il n'est pas clair s'il y a suffisamment de nouveautés ici pour changer cela.
Pour moi, le plus surprenant à propos de ces produits et services est que Google en fait la promotion très tôt. La plupart semblent ciblés pour la fin de l'été, mais j'ai été surpris de ne pas voir plus de discussions pour les développeurs sur la manière dont ils peuvent associer leurs services à l'assistant. Pichai a déclaré qu'ils en auraient plus dans quelques mois, mais Google a l'impression d'être un peu en retard et tente d'utiliser ses forces d'apprentissage et de recherche pour rattraper son retard. D'autre part, Facebook a fait une annonce anticipée lors de la conférence F8, et il y a très peu de chatbots disponibles pour cette plate-forme, et la plate-forme bot de Microsoft est également assez récente et constitue donc un marché réellement ouvert.
( Bavor Clay )
Google est dans une position quelque peu différente avec la réalité virtuelle, avec Cardboard fournissant une plate-forme populaire mais bas de gamme. Google n'essaie pas de concurrencer les solutions haut de gamme telles que Oculus Rift ou HTC Vive, mais a plutôt lancé une plate-forme pour la réalité virtuelle, Daydream, qui fera partie de la prochaine version d'Android N.
Clay Bavor, responsable de l'équipe VR de Google, a expliqué comment Android N est conçu pour prendre en charge des performances plus élevées et une latence faible, permettant ainsi à l'actualisation du "mouvement vers photon" d'être inférieure à 20 ms, ce qui la rend plus réaliste. De plus, il aura un mode VR avec sa propre interface utilisateur qui gère correctement des choses telles que les notifications dans un environnement immersif. Dans le cadre de cette version, il existe un nouvel écran d'accueil Daydream permettant de lancer du contenu VR, notamment des films et des jeux, ainsi qu'une nouvelle version de Play Store for VR fonctionnant dans l'environnement Daydream. D'autres applications incluent une nouvelle version de YouTube pour le contenu de réalité virtuelle, une version de Street View permettant de se déplacer dans différents lieux et des photos permettant de revivre des moments préférés.
Une grande partie des annonces de réalité virtuelle traitaient de normes et de spécifications. Pour les téléphones, Bavor a annoncé un ensemble de spécifications que les téléphones devront concorder pour des capteurs, des écrans et des processeurs spécifiques, afin de pouvoir s'appeler "Prêt pour Daydream". Cela ne semble pas être très différent des téléphones haut de gamme actuels, mais cela devrait indiquer clairement quels téléphones sont prêts pour Daydream. En outre, il a présenté une conception de référence pour un casque doté d’optiques de grande qualité et plus facile à mettre en place et à enlever, et plus important encore, d’un nouveau contrôleur doté de quelques boutons et d’un écran tactile particulièrement impressionnant. Bavor a indiqué que les premiers appareils seraient disponibles chez plusieurs partenaires cet automne, avec les outils de développement disponibles maintenant.
Au-delà des annonces de produits haut de gamme, il y avait beaucoup plus de détails sur Android N, la prochaine version du système d'exploitation pour mobile qui est déjà en version bêta et qui devrait être finalisée cet été.
Dave Burke, vice-président de l'ingénierie en charge d'Android, a déclaré que les domaines prioritaires de cette version sont la performance, la sécurité et la productivité. En ce qui concerne les performances, il a mis l'accent sur l'introduction de l'API graphique 3D Vulkan, qui promet de meilleures performances avec moins de temps processeur, ainsi qu'un nouveau compilateur Runtime beaucoup plus rapide qui devrait permettre des installations d'applications plus rapides. Au sujet de la sécurité, il a parlé de chiffrement basé sur fichier, de renforcement des infrastructures de supports et de mises à jour transparentes, ce qui signifie que votre appareil se mettra automatiquement à jour, vous n’aurez donc pas à installer manuellement une mise à jour. (La foule a semblé très impressionnée par cela.) En matière de productivité, il a parlé du nouveau support multi-fenêtres pour les modes écran partagé et image dans l'image, ce qui semble être un grand pas en avant par rapport aux fonctionnalités individuelles multi-fenêtres telles que Samsung et LG ont ajouté des versions existantes d’Android. Il a également mentionné des modifications moins importantes, telles que l'amélioration des notifications et la prise en charge des normes Unicode-9 Emoji.
Android Wear, TV et Auto ont suscité un peu d'attention - et chacun avait ses propres ateliers et zones au salon - mais l'accent a été mis principalement sur les outils de développement. J'ai été très impressionné par certaines des nouvelles fonctionnalités pour les développeurs. Jason Titus, vice-président des produits de développement, a parlé des avancées du Web mobile, avec plus d'un milliard d'utilisateurs de Chrome sur leurs appareils mobiles, du support des pages Web progressives et du programme AMP (Accelerated Mobile Pages) de Google pour accélérer les sites Web..
( Stephanie Saad Cuthbertson )Stephanie Saad Cuthbertson (ci-dessus), directrice de la gestion des produits pour Android Studio, a annoncé la publication d'un aperçu de Android Studio 2.2, axé sur des versions plus rapides, des outils plus intelligents pour la conception et le débogage d'applications, ainsi qu'une prise en charge plus étendue des plateformes. Elle a ajouté qu'Android Studio était désormais utilisé par 95% des 125 principales applications. Notez que Studio 2.0 vient de sortir plus tôt cette année et que Studio 2.1 prenant en charge Android N est sorti avec la version de prévisualisation de ce système d'exploitation.
La grande nouvelle est la plate-forme back-end Firebase, une base de données NoSQL que Google a acquise il y a 18 mois. Elle est maintenant devenue une suite de 15 outils de développement, allant de la base de données à la messagerie et notifications dans le cloud, à la configuration à distance et aux pannes. les rapports. Je pensais que les liens dynamiques, dans lesquels une URL pouvait produire des résultats différents selon l'endroit où elle était exploitée, étaient particulièrement intéressants. Tout cela est lié à des analyses gratuites, et cela ressemblait à une plate-forme très impressionnante et bien intégrée qui devrait intéresser de nombreux développeurs d'applications mobiles. Firebase prend en charge les applications sur Android, iOS et le Web mobile. Google en faisait donc la promotion pour les applications multiplates-formes, pas seulement pour Android.
L’une des démos les plus intéressantes a été l’aperçu d’Android Instant Apps, qui permet à toute application de fonctionner immédiatement, même si elle n’a pas été installée. Ellie Powers, chef de produit du groupe pour Android, a déclaré que cela impliquait la modularisation des applications existantes afin que le Play Store ne télécharge que les éléments nécessaires à l'affichage du contenu spécifique. Cela pourrait être un gros problème - si un ami veut que vous rejoigniez une conversation dans une application de messagerie et vous envoie un lien, l'idée est que vous pouvez simplement poursuivre la conversation plutôt que de devoir installer l'application. Cela pourrait constituer un changement important et présente une approche différente de la distinction entre le Web mobile et les applications. Les applications instantanées fonctionneront sur les téléphones allant jusqu’à Jelly Bean et devraient commencer à se déployer progressivement à la fin de l’année.
Pichai est revenu pour parler davantage d’apprentissage automatique, expliquant comment la société a publié son cadre d’apprentissage automatique TensorFlow l’année dernière et publie la semaine dernière une version open source de son analyseur en langage naturel. Il semble clair que Google espère différencier sa plate-forme cloud des autres éditeurs.
Une révélation fascinante était que le programme AlphaGo qui jouait le niveau de champion Go était basé sur du matériel personnalisé, décrit par Pichai comme étant des unités de traitement du tenseur (TPU). Lors de sessions ultérieures et d'entretiens, Google a expliqué qu'il utilisait des milliers de ces ASIC personnalisés (circuits intégrés spécifiques à une application) depuis plus d'un an pour accélérer de nombreuses applications, notamment le classement des résultats de recherche (RankBrain), la cartographie et la navigation (Street View)., traitement photo, reconnaissance vocale et traduction linguistique. Il a déclaré que le TPU offrait "un ordre de grandeur" de meilleures performances par watt pour l'apprentissage automatique. Cela tient en grande partie au fait que ces types de tâches fonctionnent correctement avec une précision réduite, ce qui permet à Google de simplifier la conception et d’emballer davantage d’éléments de traitement sur une seule puce. Il a dit que c'était "un ordre de grandeur" mieux que les plates-formes d'apprentissage GPU.
Selon Pichai, le travail de Google en matière d'apprentissage automatique peut s'appliquer à un large éventail de domaines, notamment la robotique et les soins de santé, et a souligné les travaux en cours sur la détection de la rétinopathie diabétique. "Je suis extrêmement enthousiasmé par les progrès que nous réalisons en matière d'apprentissage automatique et d'intelligence artificielle", a-t-il déclaré, ajoutant qu'il ne s'agissait pas de machines ou d'humains, mais que le véritable test était de déterminer si les humains pouvaient en faire plus. avec le soutien de l'IA.
Dans l’ensemble, l’apprentissage automatique était le thème principal, mais il était intéressant de voir comment Google tente de l’utiliser comme passerelle pour concurrencer de plus en plus de marchés, tels que la messagerie et les services cloud. Mais pour la plupart des développeurs, j’imagine que ce sont les changements d’Android N, d’Android Studio et des services Firebase qui susciteront le plus d’attention dans les mois à venir.