Le machine learning a désormais son équipe dédiée dans le centre de recherche que Google a implanté à Zurich.
Opérationnelle depuis 2008, la structure a notamment travaillé sur le Knowledge Graph associé au moteur de recherche de la firme. Elle a aussi développé les principales briques de l’agent conversationnel Google Assistant, présenté lors de la dernière Google I/O.
En matière de machine learning, Google n’en est encore qu’au tout début de l’aventure. Le CEO Sundar Pichai a toutefois affirmé, début juin dans le cadre de la Code Conference, avoir ressenti « un point d’inflexion il y a trois, quatre ans », tout particulièrement dans la manière d’interpréter et d’intégrer la dimension du contexte.
Le machine learning occupe déjà une place importante dans des produits comme Google Traduction et Photo Search. Mais aussi dans la messagerie électronique Inbox, pour automatiser les réponses à certains courriels.
Google en a aussi agrémenté sa plate-forme cloud avec, entre autres, l’API Vision, qui doit permettre aux développeurs d’intégrer, dans leurs applications, des « capacités d’interprétation » des images : reconnaissance de texte, identification d’objets, détection des visages et des émotions associées…
On entrevoit des usages dans la qualification d’images et de vidéos via l’attribution de mots-clés, voire de légendes. Ainsi que des perspectives dans l’assistance aux personnes aveugles et malvoyantes, la vidéo-protection (détection de comportements à risques) ou encore l’automobile (anticipation des situations dangereuses).
À Zurich, les travaux se concentreront sur deux domaines en particulier : le traitement du langage naturel et la vision par ordinateur.
La partie traitement du langage naturel est abordée sous deux aspects : le syntaxique et le sémantique, avec l’objectif de développer des algorithmes fonctionnels en environnement distribué.
Sur le volet syntaxique, il s’agit de détecter les parties du discours et des éléments comme le genre ou le nombre. Mais aussi les relations entre les mots (sujet – verbe – objet, modificateurs…).
Pour ce qui est du sémantique, on parle d’identification des unités de sens, de catégorisation (personne, lieu, temps), de relation thème/rhème et plus globalement des liens qu’il est possible d’établir avec d’autres faits et entités par l’intermédiaire du Knowledge Graph. Le tout au niveau d’un syntagme, d’une phrase ou d’un document entier.
Concernant la vision par ordinateur, elle englobe la reconnaissance des images et des sons. C’est ce qui a permis d’améliorer la recherche de photos, la saisie manuscrite sous Android, la reconnaissance optique de caractères avec Google Drive et la recommandation de contenus sur YouTube ou Google Music.
Le groupe Internet de Mountain View n’est pas seul sur le terrain du machine learning. On citera, pour l’exemple, Microsoft qui en a injecté une dose dans son progiciel de gestion de la relation client Dynamics CRM 2016 ; ou Amazon, qui a appliqué le concept à son système d’affichage des avis de consommateurs pour faire remonter les informations les plus pertinentes.
Crédit photo : agsandrew – Shutterstock.com
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…
Microsoft modifie la fonctionnalité de Recall sur les PC Copilot+ qui passe en opt-in. Reste…