Il y a à peine deux mois, le récent patron d’IBM, Sam Palmisano, annonçait son intention de faire de l' »utility computing » ? également appelé « computing on demand » ? son cheval de bataille, dégageant dans la foulée une ligne de crédit de 10 milliards de dollars. Comme son nom l’indique, le computing on demand vise à attribuer à la puissance de calcul fournie par les ordinateurs le même statut que celui de l’électricité, l’eau ou encore le téléphone, c’est-à-dire celui d’une prestation banalisée fournie par un prestataire et surtout facturée en fonction de la consommation.
Cette approche radicalise la notion d’infogérance puisque l’infrastructure informatique n’y est plus la propriété du client, ni même physiquement présente dans ses locaux, mais louée auprès d’un data center distant. Et il semble que le concept trouve un écho favorable du côté des entreprises puisque l’entité service d’IBM, IBM Global Services (IGS), a annoncé à quelques jours d’intervalle deux contrats d’infogérance, l’un avec Deutsche Bank, l’autre avec la banque américaine J.P. Morgan Chase, pour des montants respectifs de 2,5 et 5 milliards de dollars. Deux contrats remportés par IGS précisément grâce à sa capacité à « variabiliser » les coûts informatiques en fonction des besoins. Deutsche Bank a ainsi évalué à 1 milliard de dollars le montant des économies qu’il compte réaliser, et ce sur une durée de 10 ans.
Si le concept est indéniablement pertinent d’un point de vue économique, il n’est pas certain qu’il soit aisé à mettre en oeuvre techniquement. De son côté, IBM a mis au point une collection d’outils et de logiciels, baptisée Blue Typhon, permettant de gérer les équipements de réseau et de stockage des data centers. En particulier, il s’agit de mettre en commun des ressources disparates et d’en optimiser l’utilisation afin de les mobiliser pour, par exemple, faire face à un pic de consommation de tel ou tel client. C’est le domaine de la virtualisation des éléments de calcul, réseau et de stockage. A noter que tous les grands constructeurs informatiques ont une stratégie dans ce domaine : Hewlett-Packard avec « Utility data center » ou Sun Microsystems avec N1. Mais ces projets n’ont pas encore abouti ; il reste probablement bien des problèmes techniques à résoudre.
ASP et services Web
On ne peut s’empêcher de rapprocher le computing on demand d’une autre tendance forte de l’informatique, qui elle concerne les applications. Il s’agit de la location d’applications ou ASP et surtout des services Web, composants logiciels standardisés, loués auprès d’un prestataire. Dans les deux cas, l’enjeu est de simplifier l’informatique, d’en réduire les coûts sans en sacrifier la performance. Alors que l’ASP n’a pas rencontré le succès escompté et que les services Web en sont à leurs balbutiements, il semble, au vu des contrats remportés par IBM, que l’accès distant et à la demande aux ressources matérielles soit plus proche d’une large adoption par les entreprises.
L’IA générative excelle dans plusieurs cas d’usage, notamment dans l’analyse, la recherche et la synthèse…
Trop tôt pour envisager d'acquérir un PC Copilot+ ? Les roadmaps d'Intel et d'AMD peuvent…
Dévoilés lors du CES 2025, les PC Copilot+ au format convertible restent encore limitée dans…
Les fonctionnalités de Gemini sont intégrées dans la suite bureautique Google Workspace. Conséquence : les…
Au CES 2025, les principaux constructeurs ont annoncé l'arrivée des ordinateurs de bureau dotés de…
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…