Pour gérer vos consentements :
Categories: Cloud

Les supercalculs en quête d’étalon

En France, les clusters intéressent beaucoup de monde. Xerox et EDF notamment, qui selon MacGeneration étaient présents à la conférence organisée dernièrement par Apple France sur le sujet. La firme rebondit sur l’intérêt suscité par Big Mac, le plus grand cluster de G5 au monde. En attendant qu’un Xserve doté de la puce soit proposé. Reste que la demande est là : en avril dernier 1 000 projets pour ce type de machines étaient prévus en France pour 2003 (voir édition du 28 avril 2003). L’un des derniers en date – une sorte de « Little Big Mac » – est un cluster de quinze PowerMac G5 biprocesseurs à 2 GHz, installés dans les laboratoires de l’Inserm à Nantes, ainsi que l’a révélé le site francophone MacPlus. Physique médicale, médecine nucléaire, imagerie, dosimétrie, les domaines de recherche de cette unité de biophysique et de cancérologie ne manquent pas. Selon les responsables d’Apple, il s’agit du premier cluster de G5 en France.

Des superordinateurs à bas prix

Engouement pour les grilles de calcul (voir édition du 22 octobre 2003), montée en puissance de la demande, multiplication des projets scientifiques, arrivée de l’informatique 64 bits à faible coût, baisse des budgets…, toutes les conditions sont réunies pour lancer le marché des superordinateurs à bas prix, censé atteindre 2,3 milliards de dollars d’ici 2006 (voir édition du 19 mars 2003). Mais une question reste en suspens : vaut-il mieux utiliser une machine conçue spécifiquement ou un cluster ? « Cette question sur la conception des superordinateurs est réapparue il y a un an et demi. Je ne pense pas qu’il y ait une seule réponse. Des machines différentes donnent un rapport coût/bénéfice différent en fonction des applications », a indiqué Jim McGraw, l’un des directeurs du centre de recherche de calculs scientifiques Lawrence Livermore, à EETimes.

En effet, un cluster ne résout pas certains problèmes. L’Agence pour les projets de recherche avancés de la Défense américaine (DARPA) s’intéresse de près à ces questions depuis août dernier. Au coeur du débat : le coût de développement logiciel, énorme selon les spécialistes. Le prochain standard de tests devrait ainsi évaluer les configurations apportant le meilleur rapport coût/ performances/ développement global. Une sorte de coût total d’exploitation qui pourrait bien avoir un impact sur la façon dont les prochaines machines seront conçues. Le test Linpack, qui détermine quelle machine traite le plus d’opérations par secondes, est en ligne de mire. C’est lui qui a ainsi permis de mesurer les 10,28 téraflops de puissance de Big Mac (voir encadré). Pour l’instant c’est un modèle. Mais ce test ne s’intéresse pas à certaines questions liées aux calculs à hautes performances. Plus complet, un autre test, HPCchallenge, a ainsi fait ses débuts à la conférence SC2003 consacrée aux superordinateurs en novembre dernier.

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago