Les utilisateurs sont-ils conscients de la capacité à déduire leurs caractéristiques personnelles à partir de leurs traces numériques ? Et s’ils l’étaient, continueraient-ils de rendre publiques ces données ?
Difficile, pour Microsoft, d’esquiver ces questions soulevées par le Conseil d’Etat concernant les algorithmes prédictifs et leur impact sur la vie privée. La firme s’est d’ailleurs ouvertement positionnée sur cette problématique dans le cadre de sa plénière tenue ce jeudi en ouverture de la troisième et dernière journée des TechDays 2015, au Palais des Congrès de Paris.
Pour Bernard Ourghanlian, il est nécessaire d’entretenir un débat citoyen et d’introduire une notion « d’éthique de la donnée » ; en d’autres termes, faire en sorte que les organisations qui exploitent ces informations soient réellement tenues responsables des usages qu’elles en ont.
Le directeur technique de Microsoft France reconnaît que la capacité du régulateur à imposer ces modalités conditionnera le développement de « l’intelligence ambiante ». C’est-à-dire d’une technologie qui s’immiscerait dans notre quotidien à tel point qu’elle en deviendrait invisible, mais omniprésente.
Un parallèle s’établit avec les propos tenus fin janvier par Eric Schmidt dans le cadre du Forum économique mondial de Davos. Le président de Google affirmait qu’Internet était voué à « disparaître »… en s’intégrant dans nos vies comme l’électricité.
« On ne se demande plus où ni comment elle a été produite« , assure Bernard Ourghanlian, tout en citant l’informaticien Mark Weiser : « Les technologies les plus profondes sont celles qui […] se fondent dans la vie quotidienne jusqu’à en devenir indiscernables« .
Microsoft distingue trois composantes principales dans ce concept d’intelligence ambiante : l’ubiquité (par opposition aux deux premières générations de l’informatique ; en l’occurrence les mainframes et le PC), la contextualisation (capacité à se rapprocher des cinq sens humains) et l’interaction naturelle (par les gestes, la voix, le regard…).
Une approche mise en oeuvre par l’exploitation de jonctions entre cloud, big data… et machine learning. Cette notion d’apprentissage machine – ou « apprentissage automatique » – consiste à donner aux ordinateurs la capacité d’apprendre sans avoir besoin d’être explicitement programmés.
Ces méthodes et systèmes capables de s’adapter en fonction des données collectées, de les résumer en des descriptions concises et d’en extraire des structures cachées ouvrent de nombreuses perspectives business. « De quoi réinventer les approches commerciales et marketing« , selon Bernard Ourghanlian, qui évoque la recommandation de produits sur des sites e-commerce, la maintenance prédictive ou encore l’anticipation des désabonnements pour les opérateurs télécoms.
Les travaux de Microsoft en matière de machine learning se sont véritablement illustrés pour la première fois en 1999 avec une technologie de filtrage de spam. Ils se sont poursuivis en 2004 avec le moteur de recherche, en 2008 avec la prévision du trafic sur Bing Maps, en 2010 avec Kinect, puis en 2012 sur la traduction en temps réel.
A l’heure actuelle, les efforts sont déployés sur l’assistante vocale Cortana, dont la version française est accessible en version alpha. En coulisse, le premier éditeur mondial mène des recherches sur la reconnaissance de formes, tout en conduisant diverses expérimentations dans ses locaux, avec par exemple un ascenseur capable de s’ouvrir automatiquement lorsqu’il détecte qu’une personne a l’intention de monter.
A plus long terme, le machine learning s’exprimera auprès du grand public avec Hololens. Ce dispositif que Microsoft dénomme « ordinateur holographique » trouvera aussi des applications dans le monde professionnel, en connexion avec Azure.
La plate-forme cloud est déjà exploitée par le SLAC. Cet accélérateur de particules rattaché au département américain de l’Énergie mène ses recherches dans un bâtiment de plus de 3 kilomètres de long doté d’environ un million de capteurs. Ces derniers sont associés à une interface de programmation (API) qui permet la détection d’anomalies par l’analyse de séquences de données.
Microsoft évoque d’autres scénarios d’usage dans l’énergie, les transports, l’agriculture et le suivi médical. La firme s’arrête toutefois plus longuement sur la voiture connectée, avec un modèle doté d’un ordinateur de bord conçu par la société Altran.
Relié au bus de données du véhicule, cet ordinateur de bord fait remonter les informations vers un gestionnaire sur Azure. Pour les loueurs et les concessionnaires, c’est un moyen de réaliser une cartographie de leur parc automobile pour mieux en comprendre l’usage.
Les données relatives au véhicule (consommation de carburant, usure des pièces, etc.) sont couplées avec des données biométriques – anonymisées – comme le niveau de stress du conducteur.
« L’analyse peut permettre de déterminer si la défaillance des freins sur une voiture est liée à leur usure naturelle ou à l’usage qui en est fait« , explique Pascal Brier. Le DGA chargé de la stratégie, de l’innovation et des solutions chez Altran ajoute : « Un constructeur peut aussi se rendre compte qu’il a tout intérêt à lancer un Pack Sport pour un véhicule généralement conduit de manière agressive« .
Autre scénario d’exploitation du machine learning dans le domaine automobile : prédire le coût d’exploitation de véhicules de fonction selon les collaborateurs qui les utilisent. En associant ces éléments à des modèles d’évolution des prix du carburant, on peut demander à un employé de passer faire le plein un jour plutôt qu’un autre. Inversement, les gérants de stations-service sont théoriquement à même d’anticiper la demande.
Le même principe peut s’appliquer aux commerces pour résoudre le problème des rayons vides. C’est ce type d’optimisation qualitative que propose la société Lokad, avec des implications sur les processus de gestion de la relation client (CRM), mais aussi la planification des ressources de l’entreprise (ERP).
Autre initiative dans le secteur de la distribution : celle d’Alkemics. La start-up parisienne associe une expertise en machine learning et un réseau de plus de 800 marques pour qualifier les libellés et créer des données structurées qui permettent de segmenter la clientèle tout en mesurant l’efficacité de campagnes marketing.
Troisième entreprise conviée par Microsoft sur la scène des TechDays : Quantmetry. Formé d’ingénieurs statisticiens spécialistes de la gestion, de l’exploitation et de la modélisation de données massives, ce cabinet de conseil aide les entreprises à créer de la valeur en exploitant leur propre capital d’information.
Et Bernard Ourghanlian de conclure : « Les décideurs se demandent souvent si le machine learning ne va pas remettre en cause des projets en cours et les responsabilités de certains. Mais une fois qu’ils ont franchi le pas…« .
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…