Le siège mondial de Watson IoT ne sera pas basé en France, mais en Allemagne.
IBM a choisi la ville de Munich pour installer le centre opérationnel de sa division dédiée à l’Internet des objets.
Un millier de développeurs, consultants, chercheurs et designers y travailleront aux côtés d’ingénieurs et de data scientists qui auront pour mission de concevoir « des solutions à l’intersection de l’informatique cognitive et du IoT [sic] ».
L’informatique cognitive en question est matérialisée par le supercalculateur Watson, qui a sa business unit dédiée chez Big Blue depuis près de deux ans.
L’idée générale est d’exploiter cette technologie pour tirer parti, dans le cloud, des données que créent les milliards d’objets connectés, que ce soit à des fins de maintenance, de merchandising, de service client ou encore de sécurité nationale.
Le laboratoire d’innovation de Munich s’assortira de huit autres implantations dans le monde, dont trois en Asie (Pékin, Tokyo, Séoul) et autant aux États-Unis (Caroline du Nord, Texas, Massachusetts). Des structures présentées comme des « centres d’expérience client », où ces derniers pourront solliciter les équipes d’IBM pour développer produits et services.
Pourquoi avoir choisi l’Allemagne ? L’explication se trouve probablement dans ce partenariat avec Siemens sur les bâtiments « intelligents », avec l’objectif de rendre la construction plus fiable, plus économique et plus soutenable.
Pour faciliter l’exploitation des capacités de son supercalculateur, IBM dévoile quatre familles d’API accessibles sur la plate-forme Watson IoT Cloud.
La première fait la jonction avec les services de langage naturel. Ou comment permettre aux utilisateurs finaux d’interagir à la voix, puis contextualiser leurs propos en devinant leur intention.
IBM donne l’exemple d’un technicien qui détecterait une vibration anormale sur une machine. Dans le scénario idéal, lorsqu’il demande « D’où vient cette vibration », Watson comprend de quelle machine il s’agit et consulte l’historique des opérations de maintenance pour trouver la source la plus probable.
La deuxième API est associée à l’apprentissage automatique, ou machine learning. En d’autres termes, la capacité à automatiser le traitement de données et leur hiérarchisation pour prendre des décisions en temps réel.
Les deux autres API portent sur la reconnaissance des images (y compris dans les vidéos) et du texte (transcriptions d’entretiens téléphoniques, journaux de maintenance, commentaires d’utilisateur, tweets…).
Selon IBM, les systèmes cognitifs peuvent contextualiser 80 % des données que l’on dit « non structurées ». Témoin des ambitions que la firme entretient sur ce marché, elle a débloqué un financement de 3 milliards de dollars sur 4 ans.
Crédit photo : Claudio Divizia – Shutterstock.com
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…