Juste une semaine avant le V-Forum de WMware organisé à Paris, Microsoft n’a pas voulu rester à l’écart de la vague IT du moment. Lors de l’évènement Microsoft Days organisée pour ses clients le 2 octobre au Palais des Congrès de Paris, l’éditeur a fait un point sur sa stratégie sur la virtualisation.
La branche française venait tout juste de mettre à disposition son logiciel Hyper-V Server 2008 pour la virtualisation serveur en téléchargement gratuit à partir de son site Internet. Cela avait fait l’objet d’une annonce mondiale le 8 septembre lors du premier forum Microsoft « Get Virtual Now » aux Etats-Unis.
A l’occasion des Microsoft Days, Steve Ballmer, PDG du groupe, était présent sur tous les fronts (recherche sur Internet, net-économie mais aussi publicité sur Internet…). Mais Zane Adams, Responsable monde chez Microsoft pour la problématique du téléchargement (Senior director), avait aussi fait le déplacement. Il a insisté sur la stratégie Dynamic IT pour les développeurs et les responsables d’infrastructures.
« Nous introduisons des logiciels de management pour des déploiements efficaces », assure Zane Adams. Le représentant de Microsoft tient à développer le réflexe de la virtualisation au sein des entreprises. Actuellement, le potentiel du marché est énorme. Seuls 10% des serveurs dans le monde sont virtualisés. La ratio tombe à moins de 1% pour les postes de travail.
Vers une adoption de masse
Les perspectives d’IDC donnent le sourire à Microsoft : en 2009, 6 millions de serveurs Windows devraient faire l’objet d’un process de virtualisation. « La croissance du marché est rapide et nous tendons vers une adoption de masse », poursuit Zane Adams.
En ce qui concerne les serveurs, Microsoft compte décliner ses services de virtualisation en fonction des besoins des entreprises : consolidation des parcs de serveurs, développements et tests, plans de reprise d’activité, allocation affinée des ressources serveurs (accelerated provisioning) et gestion plus flexible des data center (« dynamic data center »).
A l’instar de la présentation qu’il avait effectuée lors des TechDays de Microsoft en février dernier, Alain le Hégarat, en qualité de chef de produits Windows Server pour Microsoft France, a rappelé la batterie des outils de virtualisation mis à disposition des clients Microsoft : serveurs (avec Hyper-V, accessible de manière autonome ou intégré dans Windows Server 2008), desktops (Windows Vista Enterprise – Centralized desktop), applications (Softricity-Application virtualization) et présentation (Terminal Services sous Windows Server 2008).
HP France : les premiers clients en production
A cette occasion, Microsoft avait invité quelques partenaires comme HP. En matière de stratégie sur la virtualisation, le constructeur américain a adopté une approche « de bout en bout » (c’est à dire du poste de travail aux data centers). « Nous partageons la même vision stratégique avec Microsoft », assure Philippe Roux, en charge des programmes data centers chez HP.
Celui-ci est revenu sur les implications en commun : des équpes croisées Hyper-V et ProLiant (du nom des serveurs de HP), des moyens techniques et humains, des formations d’experts, des outils de management interopérables et un guide sur les « bonnes pratiques HP pour mieux déployer Hyper-V ».
« Les premiers clients passent en production, au-delà de la phase tests & développement », assure Philippe Roux.
Intel : Virtualisation 3.0
Côté composants hardware, Pascal Lassaigne, Directeur Marché Entreprise pour Intel, a effectué à 360° de l’implication du fondeur dans la virtualisation (processeurs avec Intel VT-x, chipsets, networks…).
Sachant que sa maison-mère avait effectué la semaine dernière une présentation de la plate-forme serveurs Intel Xeon série 7400 orientée dans ce sens.
Pour approfondir le sujet, Intel compte déployer une feuille de route plus précise, poussant même la notion de virtualisation 3.0 (qualifiée « d’adaptive continuity »). Celle-ci prendra la relève de la virtualisation 2.0 (« flexible workload management ») avec des facilités pour basculer les applications d’un serveur à un autre en prenant en compte les dimensions de charge d’activité (« load balancing »), de haute disponibilité et de recovery pour aboutir à un contexte de cloud computing.
L’ère 1.0 étant résumée par les notions basiques d’IT management et capital expenses. Virtualisation, fais-nous rêver…
A lire également : dossier spécial Vnunet.fr : Virtualisation : la grande spirale
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…