Record puissance de calcul : comment 30 machines seulement ont battu un superordinateur

Technologie : IBM et Nvidia démontrent la capacité de traitement massivement parallèle des GPU pour certaines tâches. De quoi gagner en efficacité de la puissance de calcul et en espace.

Par Nick Heath, ZDNet.com

  • 2 min

nvidia_140

Une architecture IBM / Nvidia a effectué une simulation pour une compagnie pétrolière en 92 minutes, cassant un record en matière d’informatique haute performance établi par un cluster de plus de 22.000 nœuds de calcul. Le record a été brisé par seulement 30 machines.

La réduction massive d’infrastructure informatique nécessaire pour établir ce nouveau record pour simuler des flux de pétrole, d’eau et de gaz a été rendue possible en exploitant l’énorme capacité de traitement en parallèle des cartes graphiques (GPU). Le record originel avait été établi par ExxonMobil il y a quelques mois. Il utilisait un cluster de plus de 716.000 cœurs de processeur pour exécuter la simulation. La nouvelle approche d’IBM et de Stone Ridge Technology repose sur 30 serveurs IBM OpenPower équipés de 120 GPU Nvidia Tesla P100.

Le cluster IBM / Nvidia a réalisé la simulation en 92 minutes, plus rapidement que la simulation réalisée par ExxonMobil, et en utilisant un 10ème de la puissance de calcul et un 100ème de la place, affirme IBM. Chaque machine IBM Power System S822LC utilisées dans ce dernier test embarquait deux CPU IBM POWER8 avec quatre GPU Tesla P100, et utilisait un lien réseau NVLink bidirectionnel de 40Gops.

Sumit Gupta, vice-président IBM pour le calcul haute performance a déclaré que ce résultat démontre les points forts d’une architecture GPU / CPU étroitement couplée. « En exécutant Echelon sur IBM Power Systems, les utilisateurs peuvent réaliser des tâches plus rapides en utilisant une fraction du matériel » dit-il.

Tâches spécifiques

« Une tentative récente utilisait plus de 700.000 processeurs dans une installation serveur qui occupe près de la moitié d’un terrain de football. Stone Ridge a fait ce calcul sur deux racks de machines IBM qui pourraient s’insérer dans l’espace d’une demi-table de ping-pong ».

Les GPU excellent dans la réalisation de tâches qui peuvent être divisées en sous-tâches. Ces sous-tâches peuvent ensuite être gérées en parallèle par des milliers de noyaux dans chaque GPU. Chacune des GPU P100 possède 3.584 noyaux qui peuvent être utilisés pour des calculs parallèles, soit plus de 460.000 noyaux dans le cluster utilisé pour exécuter la simulation.

Si les types de tâches adaptées au traitement massivement parallèle proposés par les GPU sont encore limités, Nvidia affirme que leur nombre continue de croître et comprend aujourd’hui des calculs de dynamique des fluides, de mécanique structurelle, de modélisation climatique et d’autres tâches liées à la fabrication et aux découvertes scientifiques.

Nvidia a récemment commencé à pousser ses GPU en tant que technologie adaptée à la formation de modèles d’apprentissage machine, en particulier les Tesla P100 GPU et son serveur DGX-1.

Ce mois-ci IBM a également ajouté la carte graphique Nvidia Tesla P100 à IBM Cloud, proposant d’équiper les serveurs Cloud Bluemix de deux cartes P100.

Pour aller plus loin sur ce sujet

Connexion

Vous n’avez pas encore de compte ?

AUTOUR DE ZDNET
SERVICES
À PROPOS