Pour gérer vos consentements :
Categories: CloudData-stockage

Cloud et machine learning : Google approfondit la relation

Petit à petit, l’intelligence artificielle fait son nid dans le cloud de Google.

Deux des services de machine learning que le groupe Internet propose sur sa plate-forme passent en bêta publique.

En premier lieu, l’API « Natural Language », qui doit permettre d’analyser la structure et le sens d’un texte, initialement en anglais, en espagnol et en japonais.

Sur le volet syntaxique, il s’agit de détecter les parties du discours, ainsi que des éléments comme le genre et le nombre. Mais aussi les relations entre les mots (sujet – verbe – objet, modificateurs…).

L’aspect sémantique consiste à identifier des unités de sens, à les catégoriser, à déterminer le ton d’un propos et plus globalement à établir des liens avec d’autres faits et entités, le tout aussi bien à l’échelle d’un syntagme que d’un document entier.

Dans la pratique, « Natural Language », facturé en fonction du nombre de requêtes, peut être exploité pour analyser des commentaires en ligne ou des transcriptions d’appels au service client.

Pour illustrer les capacités de son API, Google a effectué une démonstration à l’appui d’un article du New York Times.

Skype Translator dans le viseur

Deuxième API ouverte en bêta : « Speech », qui exploite le même moteur de reconnaissance vocale que Google Search et Google Now pour retranscrire de la voix en texte, dans « plus de 80 langues », depuis des applications ou des objets connectés.

« Plus de 5 000 entreprises » auraient testé le service en alpha, dont HyperConnect, qui s’en est servi à la manière d’un Skype Translator pour agrémenter son service de visioconférence d’une couche multilingue.

Avec le passage en bêta, on recense quelques nouveautés, dont la possibilité d’intégrer des mots-clés qui seront exploitables en contexte ; par exemple « lecture » et « pause » lorsqu’on regarde un film.

Les deux API s’inscrivent dans la veine du « machine perception », c’est-à-dire la vision par ordinateur, qui a déjà permis à Google d’améliorer la recherche de photos, la saisie manuscrite sous Android, la reconnaissance optique de caractères avec Google Drive et la recommandation de contenu sur YouTube.

La multinationale affiche sa volonté de garder le contrôle. En cas de dérapage technologique de l’intelligence artificielle, un framework servant de « bouton rouge » a été développé par la filiale DeepMind, par ailleurs à l’origine du programme AlphaGo.

Pour aller plus loin, on revisionnera, ci-dessous, l’intervention de Sundar Pichai à la Code Conference organisée début juin.

Le CEO de Google était revenu sur l’avancée des travaux du groupe dans l’intelligence artificielle. Il avait affirmé avoir ressenti « un point d’inflexion il y a trois, quatre ans », tout particulièrement dans la manière d’interpréter et d’intégrer la dimension du contexte.

Crédit photo : agsandrew – Shutterstock.com

Recent Posts

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 semaines ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

2 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

2 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

3 mois ago

Windows 11 : comment Microsoft va réduire la taille des mises à jour

Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…

4 mois ago

Windows 11 : comment Bloc-notes va remplacer WordPad

Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…

4 mois ago