Pour gérer vos consentements :
Categories: Cloud

IBM dévoile un moteur de virtualisation

Le 28 avril, IBM a présenté ce qu’il appelle un moteur de virtualisation (virtualization engine ou VE), qui combine plusieurs technologies logicielles et matérielles. VE comporte en premier lieu une technique de partitionnement ? IBM parle de micro-partitionnement – permettant d’exécuter dix systèmes d’exploitation sur un seul microprocesseur. A cela s’ajoutent des modifications de certains logiciels d’IBM, comme le serveur d’applications J2EE WebSphere, la console d’administration Tivoli ou la base de données DB2. C’est cet ensemble qui constitue le moteur de virtualisation. Résultat de trois années de recherche, VE sera intégré sur certains serveurs de la gamme iSeries dès le mois prochain. La gamme pSeries et les équipements de stockage en bénéficieront également alors que les logiciels de partitionnement d’un éditeur tiers – VMware d’EMC (voir édition du 8 janvier 2004) – seront utilisés pour les serveurs Intel xSeries.

Optimiser l’utilisation des serveurs

Le plus souvent appliquée aux mondes du stockage et des mainframes, la virtualisation vise à fournir une vue d’ensemble des ressources disponibles sur un réseau et d’en faciliter l’accès, indépendamment de leur emplacement physique. Précisons que, de plus en plus, la virtualisation concerne non seulement les ressources matérielles mais aussi les données et les applications, afin d’en donner un accès unifié. Prenons l’exemple d’un serveur quadriprocesseur : il peut être décomposé grâce à VE en quarante partitions logiques, chacune ayant son propre système d’exploitation, ses propres applications et sa propre mémoire. Une couche logicielle permet de faire fonctionner l’ensemble, l’administration de ces serveurs virtuels et des serveurs constituant l’infrastructure matérielle, notamment ceux d’autres constructeurs qu’IBM, étant gérée de façon dynamique au niveau de la console d’administration Tivoli. Les serveurs virtuels peuvent ainsi être affectés à l’exécution d’une tâche, en fonction des besoins. L’enjeu est in fine d’optimiser l’utilisation de la capacité de calcul des serveurs, en appliquant une technologie communément utilisée sur les mainframes. Les serveurs sont en effet en moyenne utilisés à 15 % de leurs capacités alors que cette proportion atteint 80 % dans le cas des mainframes.

Recent Posts

PC Copilot+ : avec Arm ou x86 ?

Trop tôt pour envisager d'acquérir un PC Copilot+ ? Les roadmaps d'Intel et d'AMD peuvent…

2 semaines ago

Copilot+ : une sélection de PC convertibles

Dévoilés lors du CES 2025, les PC Copilot+ au format convertible restent encore limitée dans…

4 semaines ago

Avec Gemini intégré à Google Workspace, les prix s’envolent

Les fonctionnalités de Gemini sont intégrées dans la suite bureautique Google Workspace. Conséquence : les…

4 semaines ago

PC Copilot+ : c’est parti pour la transformation du parc

Au CES 2025, les principaux constructeurs ont annoncé l'arrivée des ordinateurs de bureau dotés de…

1 mois ago

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 mois ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 mois ago