La gestion et l’analyse des données non structurées qui envahissent les systèmes d’information réclament l’usage de nouveaux outils et services, de matériels et logiciels, de frameworks, réunis sous le vocable de big data.
Selon les analystes IDC, ce marché devrait progresser de 40% par an jusqu’en 2015, soit sept fois plus rapidement que l’ensemble des technologies de communication et d’information.
Le big data apporte une réponse à deux problématiques : la première concerne les énormes volumes de données qui sont désormais créés au quotidien, souligne Silicon.fr.
À ce titre, 90% des données qui circulent actuellement dans le monde auraient, selon IBM, était générées au cours des deux dernières années, ce qui donne la mesure de la difficulté et de l’épreuve qui attend les organisations dans les prochaines années.
La seconde, qui en découle, porte sur la capacité à rechercher, à extraire et à analyser les informations non structurées qui représentent la très grande majorité de ces données. De quoi créer de nouvelles opportunités pour les acteurs du marché.
De multiples approches
Si le marché du big data devrait connaître en moyenne une expansion de 40% annuellement, le rythme de progression ne sera pas le même selon qu’il touche les serveurs (27,3%), le logiciel (34,2%), ou le stockage (61,4%).
De même, plusieurs approches pourront être adoptées pour déployer une solution : des appliances, de l’outsourcing, voire du cloud computing. Mais il s’agira ici moins de choix technologiques que de choix d’usages, qui appartiendront aux organisations.
Enfin, IDC voit trois scénarios principaux pour le déploiement de la technologie big data, qui vont imposer des choix stratégiques innovants pour le stockage (scale-out) et le traitement des données (Hadoop et MapR) :
– Déploiement pour des données collectées supérieures à 100 To dans un environnement In Memory (les données demeurent dans la mémoire des serveurs et non pas sur les disques) ;
– Déploiement sur des technologies de messagerie en très grands volumes et en temps réel pour la capture et l’analyse des données (majoritairement non structurées) ;
– Déploiement sur des métiers où les volumes de données encore réduites aujourd’hui vont grossir très rapidement.
Crédit photo : Copyright Nmedia – Fotolia.com
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…