Le machine learning a désormais son équipe dédiée dans le centre de recherche que Google a implanté à Zurich.
Opérationnelle depuis 2008, la structure a notamment travaillé sur le Knowledge Graph associé au moteur de recherche de la firme. Elle a aussi développé les principales briques de l’agent conversationnel Google Assistant, présenté lors de la dernière Google I/O.
En matière de machine learning, Google n’en est encore qu’au tout début de l’aventure. Le CEO Sundar Pichai a toutefois affirmé, début juin dans le cadre de la Code Conference, avoir ressenti « un point d’inflexion il y a trois, quatre ans », tout particulièrement dans la manière d’interpréter et d’intégrer la dimension du contexte.
Le machine learning occupe déjà une place importante dans des produits comme Google Traduction et Photo Search. Mais aussi dans la messagerie électronique Inbox, pour automatiser les réponses à certains courriels.
Google en a aussi agrémenté sa plate-forme cloud avec, entre autres, l’API Vision, qui doit permettre aux développeurs d’intégrer, dans leurs applications, des « capacités d’interprétation » des images : reconnaissance de texte, identification d’objets, détection des visages et des émotions associées…
On entrevoit des usages dans la qualification d’images et de vidéos via l’attribution de mots-clés, voire de légendes. Ainsi que des perspectives dans l’assistance aux personnes aveugles et malvoyantes, la vidéo-protection (détection de comportements à risques) ou encore l’automobile (anticipation des situations dangereuses).
À Zurich, les travaux se concentreront sur deux domaines en particulier : le traitement du langage naturel et la vision par ordinateur.
La partie traitement du langage naturel est abordée sous deux aspects : le syntaxique et le sémantique, avec l’objectif de développer des algorithmes fonctionnels en environnement distribué.
Sur le volet syntaxique, il s’agit de détecter les parties du discours et des éléments comme le genre ou le nombre. Mais aussi les relations entre les mots (sujet – verbe – objet, modificateurs…).
Pour ce qui est du sémantique, on parle d’identification des unités de sens, de catégorisation (personne, lieu, temps), de relation thème/rhème et plus globalement des liens qu’il est possible d’établir avec d’autres faits et entités par l’intermédiaire du Knowledge Graph. Le tout au niveau d’un syntagme, d’une phrase ou d’un document entier.
Concernant la vision par ordinateur, elle englobe la reconnaissance des images et des sons. C’est ce qui a permis d’améliorer la recherche de photos, la saisie manuscrite sous Android, la reconnaissance optique de caractères avec Google Drive et la recommandation de contenus sur YouTube ou Google Music.
Le groupe Internet de Mountain View n’est pas seul sur le terrain du machine learning. On citera, pour l’exemple, Microsoft qui en a injecté une dose dans son progiciel de gestion de la relation client Dynamics CRM 2016 ; ou Amazon, qui a appliqué le concept à son système d’affichage des avis de consommateurs pour faire remonter les informations les plus pertinentes.
Crédit photo : agsandrew – Shutterstock.com
Les dernières migrations de Windows 10 vers Windows 11 vont accélérer l'adoption des PC IA. Mais des…
L’IA générative excelle dans plusieurs cas d’usage, notamment dans l’analyse, la recherche et la synthèse…
Trop tôt pour envisager d'acquérir un PC Copilot+ ? Les roadmaps d'Intel et d'AMD peuvent…
Dévoilés lors du CES 2025, les PC Copilot+ au format convertible restent encore limitée dans…
Les fonctionnalités de Gemini sont intégrées dans la suite bureautique Google Workspace. Conséquence : les…
Au CES 2025, les principaux constructeurs ont annoncé l'arrivée des ordinateurs de bureau dotés de…