Pulse 2013 a été l’occasion pour IBM de présenter une offre de cloud privé, IBM SmartCloud Orchestrator, reposant sur le projet OpenStack. La firme a annoncé pendant cette rencontre que ses logiciels et services cloud reposeront dorénavant sur des standards ouverts.
« Comme nous l’avons déjà constaté avec les systèmes d’exploitation Unix, Windows, Linux… les systèmes d’information resteront encore longtemps hétérogènes », explique Deepak Advani, directeur général de la gamme Tivoli chez IBM.
« C’est pourquoi nous offrons des solutions flexibles et ouvertes valables aussi bien pour les clouds privés, publics ou les infrastructures hybrides. »
L’engagement d’IBM laisse à penser qu’il intégrera au fur et à mesure de leur évolution les standards sur les autres briques de ses solutions.
L’éditeur annonce déjà les futurs concernés : IBM SmartCloud Monitoring Application Insight (supervision temps réel d’applications cloud) et deux outils en bêta utilisant des fonctions analytiques pour prédire les modifications d’échelle et d’usage (sans plus de précision).
Par ailleurs, le standard OSLC (Open Services for Lifecycle Collaboration) a permis l’intégration de SmartCloud ControlDesk et IBM Endpoint Manager pour automatiser et étendre les possibilités de contrôle des services cloud jusqu’aux terminaux mobiles en fonction des réglementations, politiques de sécurité, etc.
Pour bien administrer, encore faut-il savoir précisément de quelles ressources on dispose, pouvoir les mesurer et les contrôler afin d’automatiser au maximum le tout sur la base de règles efficaces. Ce qu’IBM concentre en un slogan de trois mots : Visibility, Control, Automation.
Pour y parvenir, Tivoli et les offres SmartCloud intègrent des mécanismes de contrôle et de mesures (comme les technologies issues de CoreMetrics racheté en juin 2010), mais aussi une corrélation des multiples informations d’administration ou de supervision via des technologies de type big data, souligne Silicon.fr.
« Outre la mobilité et les objets communicants, le cloud computing et le big data génèrent eux aussi un nombre considérable de données. Or, ces trois phénomènes sont nés indépendamment, sous forme de silos. Bonne nouvelle : la solution passe actuellement par une alliance des trois, sur une infrastructure intelligente et une sécurité de nouvelle génération », lance Danny Sabbah, directeur technique et directeur général Next Generation Platform chez IBM.
Au cœur du système, IBM présente le big data comme grand ordonnateur, y compris en termes d’infrastructure. L’éditeur annonce d’ailleurs IBM Predictive Asset Optimization Signature Solution au cœur duquel les technologies big data aident à prédire l’état des ressources et équipements informatiques.
———————————————————————————————–
Quiz : Vous souvenez-vous du Minitel ?
Crédit image : Copyright Stokkete-Shutterstock.com
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…