Vidéo: "Jean Zay", le nouveau super calculateur de Saclay, puissant comme 40 000 ordinateurs personnels (Novembre 2024)
Au cours des dernières années, nous avons assisté à de nouvelles approches intéressantes en matière d’informatique hautes performances, en particulier en abandonnant les gros processeurs traditionnels au profit de grappes de processeurs x86 avec accélérateurs ou coprocesseurs pour accélérer certains types de calcul. À la sortie du salon Supercomputing de la semaine dernière, Intel a poussé l'intégration de son coprocesseur Xeon Phi à son processeur de serveur Xeon traditionnel afin de faciliter la programmation; Nvidia présente une nouvelle version de son accélérateur GPU Tesla; et Micron soutenant un type de processeur très différent pour une informatique encore plus spécialisée. Et tout cela se passait à un moment où les accélérateurs et les coprocesseurs venaient à dominer le Top 500 des ordinateurs les plus rapides au monde, poussant certains experts à suggérer que les tests existants donnent trop de poids à ces processeurs.
Nvidia vantait ses succès avec ses cartes accélératrices Tesla, grandes grappes de GPU connectées aux processeurs principaux d’Intel ou d’AMD. Ces puces sont utilisées dans une grande variété de systèmes, y compris le système Titan du laboratoire national Oak Ridge et le nouveau système Piz Daint du centre national suisse de superinformatique. Plus intéressant encore, la société indique que les cartes Tesla font partie des 10 meilleurs systèmes de la dernière liste Green 500 des supercalculateurs les plus écoénergétiques au monde. Tous ces systèmes utilisent également Intel Xeons, à l'exception du système Titan basé sur AMD Opteron, qui est le deuxième système le plus rapide au monde dans le Top 500, mais se classe nettement moins bien dans la liste des Green 500.
En outre, Nvidia a annoncé un partenariat avec IBM pour proposer à ses accélérateurs Tesla des systèmes basés sur l’architecture IBM Power. IBM a longtemps vanté ses performances en série et son système BlueGene / Q basé sur des processeurs Power exécute le système Sequoia au laboratoire national Lawrence Livermore et le système Mira au laboratoire national Argonne, entre autres. La collaboration entre IBM et Nvidia devrait aboutir à l’avenir à des systèmes intéressants.
Lors du salon, la société a annoncé son Tesla K40, la prochaine génération de sa carte d’accélérateur GPU. La société a annoncé qu'elle proposerait 1, 4 téraflops de performances double précision, 12 Go de mémoire (bande passante de 288 Go / s) et une fonctionnalité GPU Boost, qui lui permet de fonctionner à une vitesse d'horloge plus rapide dans certaines situations. Il s’agit d’une mise à niveau de la série Tesla K20 existante, qui utilise la même conception de GPU de base produite sur la technologie 28 nm.
Parmi les autres initiatives, citons CUDA 6, qui prend désormais en charge la mémoire unifiée, permettant aux développeurs d’appréhender la mémoire comme un pool unique, même si la mémoire du processeur et celle du processeur graphique restent séparées. La société prend également en charge OpenACC, un ensemble standard de directives de compilation qui indique au système quelles parties du programme (écrites en C / C ++ et Fortran) peuvent être déchargées de la CPU vers un accélérateur pour améliorer les performances.
L'approche d'Intel, qui s'appelle l'architecture Many Integrated Core (MIC), est très différente. Il combine plusieurs petits cœurs x86 en une seule puce appelée Xeon Phi. Au cours des dernières années, Intel a vanté le fait que tous les systèmes x86 facilitent la programmation, même s'il est clair que les développeurs doivent toujours cibler directement l'architecture. Knights Corner, la version actuelle du Xeon Phi, est conçue pour être utilisée comme accélérateur avec les puces de serveur Xeon E plus traditionnelles. Elle est utilisée par divers systèmes de pointe, notamment le système chinois Tianhe-2 (actuellement le plus rapide). dans le monde) et le système Stampede au Advanced Computing Center de l’Université du Texas.
Lors du salon, Intel a annoncé une nouvelle version du nom de code Knights Landing, qui fonctionnera également comme un processeur autonome pouvant s'intégrer dans une architecture de rack standard et exécuter le système d'exploitation directement, sans nécessiter de processeur hôte (comme le Xeon E). Cela pourrait être très important pour élargir l’attrait du Xeon Phi, en particulier sur le marché des postes de travail. Là encore, ceci est conçu pour aider les développeurs de logiciels à le voir comme un processeur unique. Knights Landing sera disponible à la fois en tant que processeur autonome et en tant que carte PCI Express qui s'intègre dans les systèmes existants en tant que mise à niveau de Knights Corner.
Knights Landing apporte également d’autres modifications importantes, notamment l’ajout de la «mémoire quasi», la mémoire DRAM proposée sur le package avec le processeur, qui peut donc offrir une bande passante bien supérieure à la mémoire DDR traditionnelle, limitée par la vitesse de Le bus. (Cela va aussi plus vite, mais pas autant.) Ce n'est pas le premier pas dans cette direction; IBM a vanté la DRAM intégrée dans son architecture Power depuis des années et Intel lui-même a mis la DRAM intégrée dans les versions Iris Pro de sa famille Haswell Core. Néanmoins, je pense que nous allons voir beaucoup plus d’efforts dans cette direction dans les années à venir.
Une des nouvelles approches les plus intéressantes vient de Micron, qui a annoncé un nouvel accélérateur appelé Processeur d'automate, conçu principalement pour traiter des problèmes complexes de données non structurées.
Micron a décrit cela comme offrant une structure composée de dizaines de milliers à des millions d'éléments de traitement connectés pour résoudre des tâches spécifiques. La société, l’un des plus grands fabricants de mémoires DRAM et NAND, a déclaré que cet outil ferait appel à un traitement basé sur la mémoire pour résoudre des problèmes informatiques complexes dans des domaines tels que la sécurité des réseaux, la bioinformatique, le traitement des images et l’analyse. Dans un premier temps, Micron distribuera le processeur Automata sur une carte PCI-Express afin de permettre aux développeurs de l'utiliser, mais la société prévoit de vendre les processeurs sur des modules de mémoire standard, appelés DIMM, ou en tant que puces individuelles pour les systèmes intégrés. D'une certaine manière, cela semble similaire aux FPGA (Field-Programmable Gate Arrays), conçus pour résoudre des applications particulières impliquant une correspondance de motif.
La société a indiqué qu'elle travaillait avec Georgia Tech, l'Université du Missouri et l'Université de Virginie pour développer de nouvelles applications pour les automates. Bien que la société n’ait pas encore annoncé de date pour les produits finaux, un kit de développement logiciel devrait être publié l’année prochaine, avec des outils de simulation.
Les automates ressemblent à un travail en cours et il est probablement trop tôt pour connaître l'étendue des applications, mais c'est une approche intéressante.
Dans l’ensemble, nous assistons à l’évolution de l’informatique haute performance. Il n'y a pas si longtemps, les ordinateurs les plus rapides étaient pour la plupart des processeurs de serveur standard. En effet, les systèmes IBM Blue Gene et ceux basés sur Sparc (tels que l’ordinateur K de l’institut japonais RIKEN pour la science informatique, qui utilise des processeurs Fujitsu Sparc) représentent encore une part importante du marché, dont cinq des 10 plus rapides. systèmes dans le monde. Mais ces dernières années, la tendance est au coprocesseur, les systèmes utilisant Tesla et, plus récemment, les accélérateurs Xeon Phi constituant davantage de systèmes plus récents. Avec des améliorations de ces systèmes, de nouveaux partenariats, de meilleurs logiciels et de nouvelles approches, le marché de la superinformatique pourrait être très différent à l'avenir.