Pour gérer vos consentements :
Categories: Cloud

Windows Azure : Microsoft a les pieds sur terre avec son « OS du nuage »

Après la présentation lundi soir de Windows Azure par Ray Ozzie (Chief Software Architect chez Microsoft) lors de la Professional Developer Conference (PDC), Microsoft France a pris le relais pour donner des détails sur « système d’exploitation du nuage » construit sous Windows Server. Rappelons que le concept du cloud computing vise à mettre à disposition des capacités informatiques (stockage, calcul, infrastructures, applications) à distance par l’intermédiaire d’Internet.

L’un des principaux points soulignés par Bernard Ourghanlian, Chief Technology and Security Officer chez Microsoft France, est la nécessaire tolérance à la panne (« comment survivre à la disparition d’une ou plusieurs briques ? ») lors d’une conférence téléphonique organisée mardi matin.

Le lancement de Windows Azure a nécessité la mise en place d’une architecture robuste (stockage, serveurs, applications…) et d’une « fabrique » : un certain nombre de serveurs et des coeurs de processeurs vont faire appel à la virtualisation. « Pour chaque instance applicative au sein d’une session virtualisée, il sera possible de provisionner », assure Bernard Ourghanlian.

Sur le volet du stockage, les capacités seront attribuées par « globe » de fichiers (50 Go chacun) avec possibilité de générer une « clé de stockage afin de référencer ces zones de stockage » et de créer des « tables de stockage » (hiérarchisation des structures).

Microsoft insiste sur la dimension multi-plates formes de Windows Azure (PHP, Rubis, Java…) qu’il faudra vérifier avec l’usage. Même si l’éditeur préfére mettre en avant son logiciel de développement Visual Studio comme point d’entrée de référence.

SQL Server, framework .Net, Live…tous concernés

Tous les produits Microsoft seront impactés par la sortie du Windows Cloud, avec quelques variantes. Ainsi, SQL Services ne sera pas « entièrement relationnel » au démarrage d’Azure. « Nous allons donner accès à des fonctionnalités de base via le nuage », indique Bernard Ourghanlian. « Mais, pour l’instant, nous ne donnons pas accès à une logique 100% SQL. On ne peut pas supporter des bases de données planétaires et il est nécessaire qu’elles soient suffisamment redondantes. »

Sur le volet du framework .Net Services, le Chief Technology and Security Officer chez Microsoft France met en avant trois fonctionnalités « in the cloud » : l’Access Control Service par le biais duquel la problématique de la fédération d’identité sera traitée, le bus de services (« exposer les points de terminaison des services Web afin d’assurer la communication entre applications ») et le workflow (synchronisation, coordoination dans des domaines applicatifs).

Le « live » aura toute sa place dans le « cloud ». Plus concrètement, les services Internet que Microsoft déploit seront accessibles dans Azure (contacts, calendriers, cartographie, recherche…). Avec des modèles de réplications et de synchronisation des données multi- périphérique (PC, mobile et autres terminaux Internet…).

En l’état actuel, Microsoft ne fournit pas de précisions sur le volet du modèle économique qui fera l’objet d’une communication ultérieure. Néanmoins, quelques pistes officieuses sont avancées comme l’idée « de provisionner les coeurs et machines virtuelles en fonction de la demande ». « Le prix pourrait varier en fonction des services négociés et des temps de réponses équivalents », précise-t-on.

A lire également sur le même sujet sur eWeekEurope.fr : Microsoft lance Windows Azure, son système d’exploitation pour le cloud computing

Un parc de data centers renforcé
Pour exploiter son concept Windows Azure, Microsoft va renforcer son parc de data centers. Le groupe de Steve Ballmer a ouvert des infrastructures à Quincy (Etat de Washington) et à San Antonio, et prévoit d’en ouvrir d’autres à Chicago et à Dublin (Irlande).  Dans ses nouvelles structures d’hébergement, il compte exploiter une nouvelle approche fondée sur des conteneurs pouvant héberger jusqu’à 2500 serveurs. Ce qui permet de diviser par dix la densité classique nécessaire à ce type d’activité et de réduire la consommation d’énergie. « Dans un avenir proche, de nouveaux data centers vont arriver », commente Bernard Ourghanlian.

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago