Pour gérer vos consentements :
Categories: Mobilité

La nouvelle génération de processeur Opteron « mille » d’AMD attendue en août

Le 1er août prochain, AMD devrait annoncer la disponibilité de sa nouvelle génération de processeur Opteron 64 bits double coeur. Pour l’occasion, la numérotation des modèles devrait s’enrichir d’une unité supplémentaire passant de la centaine (Opteron 100, 200, 800), à une série en millier. L’Opteron « mille » (Opteron 1000, 1200, 1800?) se distinguera de son prédécesseur essentiellement par le support de la mémoire DDR2 et l’intégration de Pacifica, nom de code de la technologie de virtualisation récemment introduite à travers les nouveaux processeurs mobiles Turion 64 X2 (voir édition du 17 mai 2006). Il viendra concurrencer le Woodcrest, les nouveaux Xeon 5100 d’Intel basés sur la nouvelle architecture Core-MA (voir édition du 27 juin 2006).

Après les Athlon 64 et Turion 64 dual core, c’est donc au tour des processeurs AMD 64 bits pour serveur et station de travail de supporter la DDR2. Laquelle permet, à fréquence égale, d’augmenter les débits grâce à un double canal de transfert des données en écriture et lecture tout en consommant moins (la tension dalimentation passant de 2,5 à 1,8 volt). Dans ce cadre, le support de la DDR2 devrait augmenter un peu les performances globales des plates-formes AMD. Mais, de part l’intégration du contrôleur mémoire directement sur la puce, le support de la DDR2 impliquera un nouveau socket, créant une rupture avec la base des plates-formes installées.

A l’heure où Intel aborde la FB-DIMM avec ses Xeon 5100, AMD fait donc le choix de la DDR2 déjà sur le marché depuis plusieurs années. Avant tout destinée aux serveurs, la mémoire Fully Buffered DIMM supprime les temps de latence lors des opérations de lecture/écriture grâce à un bus bidirectionnel et organisé en série mais qui nécessite un AMB (Advanced Memory Buffer) sur chaque barrette. Ce qui rend encore onéreux les modules de mémoire pour une bande passante à peu près équivalente à celle de la DDR2. « AMD supportera la FB-Dimm quand le tarif sera avantageux », justifie Margaret Lewis, directrice marketing chez AMD.

Les enjeux de la virtualisation

Les besoins en matière de virtualisation sont en revanche une réalité. Outre la capacité à tirer partie de la puissance inutilisée des serveurs, les technologies de virtualisation adressent aujourd’hui de nombreux marchés dont ceux de la sécurité, de l’exploitation prolongée de systèmes vieillissants (comme Windows NT), d’applications gourmandes en ressources comme la business intelligence (BI) ou la simulation, de base de données, etc. L’intégration au niveau d’instructions de virtualisation réduit la complexité des hyperviseurs (logiciels de virtualisation) pour les développeurs. Ce qui encourage les éditeurs de solutions (les ISV) à venir enrichir l’échosystème que construit AMD. Lequel compte aujourd’hui plus de 300 partenaires (constructeurs compris).

Pour se distinguer de son concurrent direct (les instructions de virtualisation sont quasime0nt similaires), le fondeur de Sunnyvale s’appuie sur la gestion optimisée de la mémoire induite par l’architecture Direct Connect. Laquelle réduit les goulets d’étrangement lors des transferts de données entre la mémoire, le processeur et les chipset. De plus, intégré au processeur, le contrôleur mémoire est à son tour « virtualisé » et serait dans ce cadre plus réactif que celui d’Intel pris en charge par le chipset. « Cela évite d’avoir à vider la mémoire à chaque fois que l’on bascule d’un environnement virtuel à un autre », soutient la directrice marketing.

AMD poursuivra le développement des technologies de virtualisation, notamment en partenariat avec nombre d’acteurs dont VMWare, Microsoft, Novell, Sun Microsystems ou encore le projet open source Xen. Dès 2007, AMD déploiera la technologie Nasted Page Tables pour réduire encore les temps système lors d’un passage d’une machine virtuelle à une autre et, en 2008, la virtualisation de périphériques en vue d’accroître les performances et la sécurité du système. « A terme, l’hyperviseur sera assez petit pour être intégré au système d’exploitation, voire dans le processeur », soutient Margaret Lewis.

Une plate-forme unique »

Au-delà de ces nouveautés, AMD inscrit le développement de l’Opteron dans une stratégie de stabilité. Alors qu’Intel déploie différentes plates-formes selon les modèles de serveur, le fondeur entend ainsi offrir une seule plate-forme à ses clients, tant pour les machines à un processeur qu’à deux, quatre ou huit. Ce qui, pour le client final, simplifie les évolutions matérielle. « Nous essayons de rendre les transitions les moins douloureuses possible », justifie la responsable.

Enfin, la question de la consommation énergétique reste au coeur des préoccupation du constructeur. Celui-ci s’engage d’ailleurs à maintenir la consommation des Opteron au fil de leur évolution. Ainsi, le futur Opteron quadri-coeur (nom de code « 4×4 ») prévu pour 2007 offrira le même rendement que le prochain Opteron « mille » (avec une consommation située autour de 95 watts). Et toujours accompagné de la technologie d’optimisation d’énergie PowerNow qui s’appliquera indépendamment sur chacun des coeurs.

A travers cette stratégie, AMD espère dépasser, d’ici 2008, les 30 % de part de marché mondiale sur le secteur des serveurs. Une stratégie qui réussit au fondeur lequel annonce aujourd’hui détenir 22 % du marché (au 1er trimestre 2006) contre 16 % un an plus tôt. Autre signe de succès, l’annonce historique de Dell qui intègre désormais les puces AMD dans son catalogue de solution serveurs quadri-processeurs (voir édition du 22 mai 2006).

AMD anticipe la demande à venir en augmentant ses capacités de production. Notamment sur son site de Dresde en Allemagne. Après avoir ouvert sa Fab 36 (voir édition du 17 octobre 2005), le fondeur a annoncé le réaménagement de la Fab 30 en Fab 38 (voir édition du 30 mai 2006) qui permettra la production sur galettes de silicium (wafer) de 300 millimètres (au lieu de 200 précédemment). Enfin, le fondeur a posé une option pour démarrer d’ici 2008 la construction d’une nouvelle usine dans l’Etat de New York. Celle-ci devrait alors aborder les technologie de gravure en 45 nanomètres (contre 90 nm aujourd’hui et, bientôt, 65 nm).

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago