Categories: CloudData-stockage

Cloud et machine learning : Google approfondit la relation

Petit à petit, l’intelligence artificielle fait son nid dans le cloud de Google.

Deux des services de machine learning que le groupe Internet propose sur sa plate-forme passent en bêta publique.

En premier lieu, l’API « Natural Language », qui doit permettre d’analyser la structure et le sens d’un texte, initialement en anglais, en espagnol et en japonais.

Sur le volet syntaxique, il s’agit de détecter les parties du discours, ainsi que des éléments comme le genre et le nombre. Mais aussi les relations entre les mots (sujet – verbe – objet, modificateurs…).

L’aspect sémantique consiste à identifier des unités de sens, à les catégoriser, à déterminer le ton d’un propos et plus globalement à établir des liens avec d’autres faits et entités, le tout aussi bien à l’échelle d’un syntagme que d’un document entier.

Dans la pratique, « Natural Language », facturé en fonction du nombre de requêtes, peut être exploité pour analyser des commentaires en ligne ou des transcriptions d’appels au service client.

Pour illustrer les capacités de son API, Google a effectué une démonstration à l’appui d’un article du New York Times.

Skype Translator dans le viseur

Deuxième API ouverte en bêta : « Speech », qui exploite le même moteur de reconnaissance vocale que Google Search et Google Now pour retranscrire de la voix en texte, dans « plus de 80 langues », depuis des applications ou des objets connectés.

« Plus de 5 000 entreprises » auraient testé le service en alpha, dont HyperConnect, qui s’en est servi à la manière d’un Skype Translator pour agrémenter son service de visioconférence d’une couche multilingue.

Avec le passage en bêta, on recense quelques nouveautés, dont la possibilité d’intégrer des mots-clés qui seront exploitables en contexte ; par exemple « lecture » et « pause » lorsqu’on regarde un film.

Les deux API s’inscrivent dans la veine du « machine perception », c’est-à-dire la vision par ordinateur, qui a déjà permis à Google d’améliorer la recherche de photos, la saisie manuscrite sous Android, la reconnaissance optique de caractères avec Google Drive et la recommandation de contenu sur YouTube.

La multinationale affiche sa volonté de garder le contrôle. En cas de dérapage technologique de l’intelligence artificielle, un framework servant de « bouton rouge » a été développé par la filiale DeepMind, par ailleurs à l’origine du programme AlphaGo.

Pour aller plus loin, on revisionnera, ci-dessous, l’intervention de Sundar Pichai à la Code Conference organisée début juin.

Le CEO de Google était revenu sur l’avancée des travaux du groupe dans l’intelligence artificielle. Il avait affirmé avoir ressenti « un point d’inflexion il y a trois, quatre ans », tout particulièrement dans la manière d’interpréter et d’intégrer la dimension du contexte.

Crédit photo : agsandrew – Shutterstock.com

Recent Posts

Digital Workplace : comment l’IA Générative s’installe dans l’environnement de travail

L’IA générative excelle dans plusieurs cas d’usage, notamment dans l’analyse, la recherche et la synthèse…

2 jours ago

PC Copilot+ : avec Arm ou x86 ?

Trop tôt pour envisager d'acquérir un PC Copilot+ ? Les roadmaps d'Intel et d'AMD peuvent…

2 semaines ago

Copilot+ : une sélection de PC convertibles

Dévoilés lors du CES 2025, les PC Copilot+ au format convertible restent encore limitée dans…

4 semaines ago

Avec Gemini intégré à Google Workspace, les prix s’envolent

Les fonctionnalités de Gemini sont intégrées dans la suite bureautique Google Workspace. Conséquence : les…

1 mois ago

PC Copilot+ : c’est parti pour la transformation du parc

Au CES 2025, les principaux constructeurs ont annoncé l'arrivée des ordinateurs de bureau dotés de…

1 mois ago

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

3 mois ago