La virtualisation informatique fait couler beaucoup d’encre. Elle affiche des ambitions, résolument en phase avec notre époque, notamment en termes de souplesse d’utilisation, de continuité d’activité, de réduction des coûts, de gains de productivité, de minimisation de l’obsolescence, d’économies d’énergie…
Les procédés de virtualisation remontent presque aux origines de l’informatique; l’acronyme VM désignait déjà la « Virtual Machine » des ordinateurs IBM, il y a une quarantaine d’années. Comme le définit aujourd’hui Scalent, fournisseur de solutions de virtualisation pour centres de données: « La virtualisation dissocie les infrastructures logicielles des plates-formes matérielles et de la connectivité réseau, pour une ré-allocation dynamique des ressources, en fonction des besoins. »
Ainsi, toute ressource informatique est potentiellement sujette à virtualisation. Rien que l’utilisation multitâche d’un micro-ordinateur courant, de façon transparente, met en jeu la virtualisation de sa mémoire, de son processeur, voire de son système d’exploitation. Ce principe s’applique aux serveurs isolés, ainsi qu’aux groupes de serveurs, auxquels la virtualisation apporte aussi la répartition dynamique de charge, dite consolidation de serveurs.
Reprenant les études du cabinet d’analyses IDC, VMware indique que, sans la virtualisation, les serveurs de technologie x86 sont sous-exploités, avec un taux d’occupation moyen de seulement 10 à 15%. En comparaison, VMware rapporte que ses clients obtiennent un taux d’exploitation de 60 à 80%, en fonctionnement virtualisé. Il précise même qu’on monte à 85%, en utilisant simultanément plusieurs systèmes d’exploitation.
Ce spécialiste, en solutions de virtualisation, estime que l’on économise ainsi de 500 à 600 dollars par serveur et par an, rien qu’en énergie d’alimentation et de refroidissement. Globalement, la virtualisation des serveurs réduirait leur coût en matériel et fonctionnement de l’ordre de 50%.
La virtualisation, synonyme « d’agilité »
L’indépendance des machines virtuelles, crées dynamiquement dans les serveurs, permet leur migration à chaud, sans interruption de service. La maintenance du système d’information s’en trouve facilité, ainsi que la gestion différenciée du cycle de vie de ses éléments constitutifs: matériels, middlewares, systèmes d’exploitation, logiciels… Notamment, il devient possible de faire fonctionner simultanément plusieurs versions d’une même application.
(lire la suite de l’article page 2)
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…