Google a lancé sa conférence annuelle des développeurs “Google d’I/O” au Shoreline Amphitheatre à Mountain View, en Californie. Voici quelques-unes des plus grandes annonces du keynote du jour 1. Il y aura plus à venir au cours des deux prochains jours, alors suivez tout à propos de Google I/O sur Le Programmeur Marocain.
Table Des Matières
- 1 Google se lance dans l’intelligence artificielle
- 2 Google rend la conversation à l’assistant plus naturelle avec “poursuite de la conversation”
- 3 Google Photos reçoit un coup de pouce de l’IA
- 4 Google Assistant et YouTube viendront avec affichages intelligents
- 5 Google Assistant arrive sur Google Maps
- 6 Google annonce une nouvelle génération pour son matériel d’apprentissage automatique TPU
- 7 Google Actualités bénéficie d’une nouvelle conception de l’Intelligence Artificielle
- 8 Google dévoile ML Kit, un SDK qui facilite l’ajout d’intelligence artificielle aux applications iOS et Android
Google se lance dans l’intelligence artificielle
Juste avant le keynote, Google a annoncé le changement de nom de sa division Google Research en Google AI. Le déménagement indique que Google a de plus en plus concentré la R&D sur la vision par ordinateur, le traitement du langage naturel et les réseaux de neurones.

Google rend la conversation à l’assistant plus naturelle avec “poursuite de la conversation”
Qu’est ce que Google a annoncé? Google a annoncé une mise à jour de “Conversation continue” avec l’Assistant Google qui rend cette conversation plus naturelle. Maintenant, au lieu d’avoir à dire “Hey Google” ou “OK Google” chaque fois que vous voulez dire une commande, vous n’aurez qu’à le faire la première fois. La société ajoute également une nouvelle fonctionnalité qui vous permet de poser plusieurs questions dans la même requête. Tout cela va se dérouler dans les prochaines semaines.
Pourquoi est-ce si important? Eh bien lorsque vous rencontrez une conversation typique, il y a de fortes chances que vous posiez des questions de suivi si vous n’aviez pas la réponse que vous vouliez. Mais il peut être gênant d’avoir à dire “Hey Google” à chaque fois, et cela brise tout le flux et rend le processus assez anormal. Si Google veut être un acteur important en matière d’interfaces vocales, l’interaction réelle doit se sentir comme une conversation – pas seulement une série de requêtes.

Google Photos reçoit un coup de pouce de l’IA
Qu’est ce que Google a annoncé? Google Photos vous permet déjà de corriger facilement les photos avec des outils d’édition intégrés et des fonctionnalités alimentées par AI pour créer automatiquement des collages, des films et des photos stylisées. Maintenant, Google Photos obtient plus de correctifs alimentés par AI comme la colorisation de photos en noir et blanc, la correction de luminosité et les rotations suggérées. Une nouvelle version de l’application Google Photos vous proposera des correctifs rapides tels que des rotations, des corrections de luminosité ou l’ajout de touches de couleur.
Pourquoi est-ce si important? Google travaille à devenir un hub pour toutes vos photos et il est capable de séduire les utilisateurs potentiels en leur proposant des outils puissants pour éditer, trier et modifier ces photos. Chaque photo supplémentaire obtenue par Google lui offre davantage de données et l’aide à mieux comprendre la reconnaissance d’images, ce qui améliore non seulement l’expérience utilisateur de Google, mais améliore également ses propres outils pour ses services. Google, en son coeur, est une société de recherche – qui a besoin de beaucoup de données pour obtenir une bonne visibilité.

Google Assistant et YouTube viendront avec affichages intelligents
Qu’est ce que Google a annoncé? Smart Displays a été le sujet du CES de Google cette année, mais nous n’avons pas beaucoup entendu parler du concurrent de Google Echo Show depuis. À l’I/O, ils ont eu un peu plus de perspicacité dans les efforts d’affichage intelligents de l’entreprise. Les premiers affichages intelligents de Google seront lancés en juillet et, bien sûr, seront alimentés par Google Assistant et YouTube. Il est clair que la société a investi des ressources dans la construction d’une première version visuelle d’Assistant, justifiant l’ajout d’un écran à l’expérience.
Pourquoi est ce si important? les utilisateurs s’habituent de plus en plus à l’idée d’un appareil intelligent assis dans leur salon qui répondra à leurs questions. Mais Google cherche à créer un système permettant à un utilisateur de poser des questions et d’avoir une option d’affichage visuel pour les actions qui ne peuvent pas être résolues avec une interface vocale. Google Assistant gère la partie vocale de cette équation – et avoir YouTube est un bon service qui va de pair avec cela.

Google Assistant arrive sur Google Maps
Qu’es ce que Google a annoncé? Google Assistant arrive sur Google Maps, disponible sur iOS et Android cet été. L’ajout vise à fournir de meilleures recommandations aux utilisateurs. Google a longtemps travaillé pour rendre les cartes plus personnalisées, mais comme Maps ne se limite pas seulement aux directions, la société introduit de nouvelles fonctionnalités pour vous donner de meilleures recommandations pour les endroits locaux.
L’intégration de cartes combine également la caméra, la technologie de vision par ordinateur et Google Maps avec Street View. Avec la combinaison caméra/cartes, on dirait que vous êtes là dans Street View. Google Lens peut faire des choses comme identifier les bâtiments, ou même les races de chiens, juste en pointant votre appareil photo sur l’objet en question. Il sera également capable d’identifier le texte.
Pourquoi est-ce si important? Maps est l’un des produits les plus ambitieux et les plus importants de Google. Il y a beaucoup d’excitation autour de la réalité augmentée – vous pouvez pointer vers des phénomènes comme Pokémon Go – et les entreprises commencent juste à gratter la surface des meilleurs cas d’utilisation pour cela. Déterminer les directions semble être un tel cas d’utilisation naturel pour une caméra, et même si c’était un exploit technique, cela donne à Google un autre avantage pour ses utilisateurs de cartes de les garder dans le service et de ne pas passer à des alternatives. Encore une fois, avec Google, tout revient aux données, et il est capable de capturer plus de données si les utilisateurs restent dans ses applications.

Google annonce une nouvelle génération pour son matériel d’apprentissage automatique TPU
Qu’est ce que Google a annoncé? Alors que la guerre pour la création de matériel AI personnalisé se réchauffe, Google a annoncé le déploiement de sa troisième génération de silicium, le Tensor Processor Unit 3.0. Le PDG de Google, Sundar Pichai, a déclaré que le nouveau pod TPU est 8x plus puissant que l’année dernière, avec jusqu’à 100 pétaflops en performance. Google rejoint à peu près toutes les autres grandes entreprises en cherchant à créer du silicium personnalisé afin de mieux gérer ses opérations relatives aux machine learning (l’apprentissage automatique).
Pourquoi est-ce si important? Il y a une course pour créer les meilleurs outils d’apprentissage automatique pour les développeurs. Que ce soit au niveau du framework avec des outils comme TensorFlow ou PyTorch ou au niveau matériel réel, l’entreprise qui est capable de verrouiller les développeurs dans son écosystème aura un avantage sur ses concurrents. Il est particulièrement important que Google cherche à construire sa plate-forme de cloud computing, GCP, dans une entreprise massive tout en allant contre Amazon AWS et Microsoft Azure. Donner aux développeurs – qui adoptent déjà en masse TensorFlow – un moyen d’accélérer leurs opérations peut aider Google à continuer à les séduire dans l’écosystème de Google.

Google Actualités bénéficie d’une nouvelle conception de l’Intelligence Artificielle
Q’est ce que Google a annoncé? Attention, Facebook! Google prévoit également de tirer parti de l’intelligence artificielle dans une version améliorée de Google Actualités. L’application de destination d’actualités redessinée par AI va “permettre aux utilisateurs de suivre les actualités qui les intéressent, comprendre l’histoire complète et apprécier et soutenir les éditeurs auxquels ils font confiance.” Elle exploitera les éléments de l’application de presse numérique de Google, Kiosque et YouTube, et introduit de nouvelles fonctionnalités telles que “bulletins d’information” et “couverture complète” pour aider les gens à obtenir un résumé ou une vision plus globale d’un reportage.
Pourquoi est-ce si important? Le produit principal de Facebook est littéralement appelé “Fil d’actualité”, et il constitue une source majeure d’informations pour une partie non triviale de la planète. Mais Facebook est impliqué dans un scandale sur les données personnelles de près de 87 millions d’utilisateurs finissant entre les mains d’un cabinet de recherche politique, et il y a beaucoup de questions sur les algorithmes de Facebook en ce qui concerne la légitimité des iinformations . C’est un énorme trou que Google pourrait exploiter en offrant un meilleur produit d’information et, une fois de plus, en enfermant les utilisateurs dans son écosystème.

Google dévoile ML Kit, un SDK qui facilite l’ajout d’intelligence artificielle aux applications iOS et Android
Qu’es ce que Google a annoncé? Google a dévoilé ML Kit, un nouveau kit de développement de logiciels pour les développeurs d’applications sur iOS et Android qui leur permet d’intégrer des modèles d’apprentissage automatique prédéfinis fournis par Google dans les applications. Les modèles prennent en charge la reconnaissance de texte, la détection de visages, la lecture de codes à barres, l’étiquetage d’images et la reconnaissance de repères.
Pourquoi est-ce si important? Les outils d’apprentissage automatique ont permis une nouvelle vague de cas d’utilisation qui incluent des cas d’utilisation basés sur la reconnaissance d’image ou la détection de la parole. Mais même si les frameworks tels que TensorFlow ont facilité la création d’applications qui exploitent ces outils, ils peuvent tout de même avoir besoin d’un haut niveau d’expertise pour les lancer et les faire fonctionner. Les développeurs trouvent souvent les meilleurs cas d’utilisation pour les nouveaux outils et dispositifs, et les kits de développement comme ML Kit aident à réduire les barrières à l’entrée et à donner aux développeurs une multitude d’expérience dans l’apprentissage automatique.

Alors quand est ce que vous seriez en mesure de jouer réellement avec toutes ces nouvelles fonctionnalités? La version bêta d’Android P est disponible aujourd’hui et vous pouvez la trouver ici.