Premiers succès pour le ‘computing on demand’
IBM vient de remporter un contrat d’infogérance de 5 milliards de dollars sur sept ans avec la banque J.P. Morgan Chase, dont l’originalité est de facturer le client en fonction de la consommation des ressources informatiques. C’est le concept du « computing on demand ». A n’en pas douter, il s’agit une tendance forte pour les années à venir…
Il y a à peine deux mois, le récent patron d’IBM, Sam Palmisano, annonçait son intention de faire de l' »utility computing » ? également appelé « computing on demand » ? son cheval de bataille, dégageant dans la foulée une ligne de crédit de 10 milliards de dollars. Comme son nom l’indique, le computing on demand vise à attribuer à la puissance de calcul fournie par les ordinateurs le même statut que celui de l’électricité, l’eau ou encore le téléphone, c’est-à-dire celui d’une prestation banalisée fournie par un prestataire et surtout facturée en fonction de la consommation.
Cette approche radicalise la notion d’infogérance puisque l’infrastructure informatique n’y est plus la propriété du client, ni même physiquement présente dans ses locaux, mais louée auprès d’un data center distant. Et il semble que le concept trouve un écho favorable du côté des entreprises puisque l’entité service d’IBM, IBM Global Services (IGS), a annoncé à quelques jours d’intervalle deux contrats d’infogérance, l’un avec Deutsche Bank, l’autre avec la banque américaine J.P. Morgan Chase, pour des montants respectifs de 2,5 et 5 milliards de dollars. Deux contrats remportés par IGS précisément grâce à sa capacité à « variabiliser » les coûts informatiques en fonction des besoins. Deutsche Bank a ainsi évalué à 1 milliard de dollars le montant des économies qu’il compte réaliser, et ce sur une durée de 10 ans.
Si le concept est indéniablement pertinent d’un point de vue économique, il n’est pas certain qu’il soit aisé à mettre en oeuvre techniquement. De son côté, IBM a mis au point une collection d’outils et de logiciels, baptisée Blue Typhon, permettant de gérer les équipements de réseau et de stockage des data centers. En particulier, il s’agit de mettre en commun des ressources disparates et d’en optimiser l’utilisation afin de les mobiliser pour, par exemple, faire face à un pic de consommation de tel ou tel client. C’est le domaine de la virtualisation des éléments de calcul, réseau et de stockage. A noter que tous les grands constructeurs informatiques ont une stratégie dans ce domaine : Hewlett-Packard avec « Utility data center » ou Sun Microsystems avec N1. Mais ces projets n’ont pas encore abouti ; il reste probablement bien des problèmes techniques à résoudre.
ASP et services Web
On ne peut s’empêcher de rapprocher le computing on demand d’une autre tendance forte de l’informatique, qui elle concerne les applications. Il s’agit de la location d’applications ou ASP et surtout des services Web, composants logiciels standardisés, loués auprès d’un prestataire. Dans les deux cas, l’enjeu est de simplifier l’informatique, d’en réduire les coûts sans en sacrifier la performance. Alors que l’ASP n’a pas rencontré le succès escompté et que les services Web en sont à leurs balbutiements, il semble, au vu des contrats remportés par IBM, que l’accès distant et à la demande aux ressources matérielles soit plus proche d’une large adoption par les entreprises.