Pour gérer vos consentements :
Categories: Cloud

Pas de ‘computing on demand’ avant 2008

D’après le cabinet d’études IDC, qui a ausculté 34 grandes entreprises dont le chiffre d’affaires moyen est de 7 milliards de dollars, le computing on demand ne devrait pas émerger de façon significative avant 2008. Le concept, dont IBM se fait le héraut (voir édition du 2 janvier 2003), vise à transformer l’informatique, tant matérielle que logicielle, en une prestation banalisée que les entreprises achètent auprès d’un tiers et consomment en fonction de leurs besoins, à l’instar de l’électricité ou de l’eau. A ce sujet, les Anglo-saxons parlent de « commoditisation » de l’informatique. Et de même qu’il existe des centrales produisant du courant électrique, il existerait, selon cette approche, des « centrales informatiques » fournissant à la demande puissance de calcul et applications.

Les entreprises sont-elles prêtes à se rallier à cette vision ? L’enquête réalisée par IDC pointe tout de même plusieurs réticences. Ainsi, parmi les entreprises sondées, 19 ne souhaitent pas que leur matériel informatique soit hébergé hors de leurs murs et, en outre, partagé avec d’autres. En revanche, la moitié d’entre elles souhaiterait disposer en interne de technologies réservées à leur seul usage et mises en oeuvre dans lesdites « centrales informatiques ». Il s’agit en particulier du grid computing (voir édition du 24 avril 2002) et des logiciels de virtualisation des ressources informatiques, tels que Sun Microsystems, par exemple, en propose dans le cadre de sa stratégie N1 (voir édition du 11 décembre 2002).

Au moins 30 % d’économie

Outre cette réticence à l’égard du partage et de la délocalisation des ressources informatiques, les entreprises ont vis-à-vis de l’éventuel prestataire des exigences fortes. Elles souhaitent ainsi que le contrat les liant soit limité à un an, ce qui représente une durée bien inférieure à ce qui est d’ordinaire pratiqué dans le cadre des prestations d’infogérance où les contrats courent très souvent sur trois, cinq voire dix ans. Leur crainte est évidemment de rester prisonnières d’un fournisseur unique et d’avoir à passer sous ses fourches caudines pour tout nouveau besoin. Autre attente : que le computing on demand se traduise par des réductions de coûts drastiques, de l’ordre de 30 %. La viabilité financière des prestataires, une possible escalade non maîtrisée des coûts, un éventuel vol des données… sont d’autres motifs d’inquiétude. Pour les convaincre, les groupes informatiques partisans du computing on demand ? IBM bien sûr, mais également HP ou Sun Microsystems ? ont donc d’énormes efforts d’évangélisation du marché à faire. IBM s’y emploie très activement, en témoigne la campagne qu’il mène actuellement dans tous les médias.

Services Web, versant logiciel du « computing on demand »

Ils se doivent également d’affûter leurs technologies. Selon le site d’informations News.com, IBM devrait, lors de la manifestation qui réunit ses partenaires, PartnerWorld Conference, présenter la nouvelle version de son serveur d’applications J2EE, WebSphere, qui est le socle logiciel de sa stratégie computing on demand. Parmi les apports de la nouvelle mouture, citons pêle-mêle une fonctionnalité de « chorégraphie » des services Web, c’est-à-dire l’enchaînement de plusieurs services Web au sein d’un processus transactionnel, adossé à la technologie BPEL4WS (Business Process Execution Language for Web Services) ou encore un environnement de développement, WebSphere Studio Application Developer, qui permet, par exemple, de générer des services Web à partir de composants divers (Java, CICS, etc.) puis de les tester sur le serveur avant de les déployer.

Et de fait, les services Web, en tant qu’ils permettent d’élaborer des composants logiciels standardisés, le cas échéant loués auprès d’un fournisseur, sont bel et bien le versant logiciel du computing on demand. De même qu’ils commanderont de la puissance de calcul ou de la capacité de stockage en fonction de leurs besoins, les responsables informatique de demain élaboreront le système d’information – si les services Web tiennent leurs promesses – en assemblant des composants prêts à l’emploi.

Reste à savoir s’il est possible d’aboutir à une telle simplification de l’informatique. Le versant matériel du computing on demand, c’est-à-dire l’accès distant et à la demande aux ressources matérielles, semble bien être de l’ordre du possible. IBM a d’ores et déjà remporté des contrats dans ce domaine. A dire vrai, le principe n’est pas vraiment nouveau. Dès les années 70, du temps de l’informatique centralisée et des grands systèmes, IBM et d’autres ont loué de la puissance de calcul sur des machines mutualisées, une offre commercialisée alors sous le nom de « service bureau ». Quant au versant applicatif, l’histoire tend à prouver que tout effort visant la simplification se traduise immanquablement par un surcroît de complexité. Par quel miracle les services Web feraient-ils exception à cette règle ?

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago