Vidéo: Quelles sont les compétences personnelles les plus importantes pour être business analyst? (Novembre 2024)
À la lecture des annonces et des actes de la conférence sur le calcul intensif qui s'est tenue le mois dernier à Supercomputing 15 (SC15) à Austin, il apparaît que, si l'informatique haute performance est peut-être en train de ralentir, le marché est sur le point de connaître de grands changements viens.
Si vous regardez les leaders du top 500, la liste biannuelle des ordinateurs les plus rapides au monde, le leader pour la sixième fois consécutive est le Tianhe-2, un supercalculateur construit par l'Université nationale chinoise de la technologie de défense. Selon la liste top500, cette machine fournit 33, 86 pétaflops / s (des quadrillions de calculs par seconde) de performances soutenues sur le benchmark Linpack et 54, 9 pétaflops / s de performances de pointe théoriques. Ceci est basé sur les processeurs Intel Xeon et Xeon Phi.
La deuxième place revient toujours à Titan, un système Cray XK7 basé sur des processeurs AMD Opteron et des GPU Nvidia K20x installés au laboratoire national Oak Ridge du DOE, à 17, 59 petaflop / s de performances soutenues sur le benchmark Linpack.
Le Trinity du Laboratoire national Lawrence Livermore (LLNL) occupe le sixième rang avec 8, 1 pétaflops / s, tandis que le système Hazel-Hen du centre allemand Höchstleistungsrechenzentrum Stuttgart (HLRS) arrive huitième avec 5, 6 pétaflopes. Les deux sont des machines Cray XC, basées sur des processeurs Intel Xeon avec interconnexion Aries.
Des changements plus importants se produisent plus bas sur la liste, en particulier avec une forte augmentation du nombre de systèmes chinois, qui est passé à 109, contre seulement 37 dans la liste précédente. Cela semble en partie provenir d'un plus grand nombre de systèmes chinois exécutant les tests de performance et soumettant les résultats à la liste. En conséquence, le nombre de systèmes américains est passé de 231 à 200, ce qui est le nombre le plus bas depuis le début de la liste en 1993; et le nombre de systèmes européens est passé de 141 à 108.
L'une des grandes tendances est l'augmentation du nombre de systèmes utilisant des accélérateurs ou des coprocesseurs, qui est passé de 90 en juillet à 104 sur la liste actuelle. La majorité de ces systèmes utilisent des GPU Nvidia Tesla, suivis des coprocesseurs Intel Xeon Phi, quelques-uns utilisant une combinaison. Nvidia a indiqué que c'était dans 70 de ces systèmes, y compris 23 des 24 nouveaux systèmes de la liste.
Lors du salon, Nvidia a souligné la croissance des accélérateurs, et en particulier le nombre d'applications maintenant optimisées pour l'architecture CUDA de la société. La société indique que 90% des 10 applications informatiques les plus performantes et 70% des 50 applications les plus performantes sont désormais accélérées. Une utilisation intéressante est l'utilisation de systèmes de simulation météorologique, une application majeure du calcul haute performance, dans la mesure où les prévisions météorologiques sont établies par toutes sortes de gouvernements. Cray avait déjà évoqué l'utilisation de tels accélérateurs au sein du Bureau de météorologie suisse (MétéoSuisse) et a expliqué comment il travaillait avec des chercheurs suisses pour réécrire bon nombre de ses applications. Nvidia signale à présent l’utilisation des accélérateurs par la NOAA (National Oceanic and Atmospheric Administration) pour certaines de ses prévisions météorologiques.
Parmi d'autres applications, Cray a vanté les applications pétrolières et gazières, telles que l'utilisation de la géophysique 3D pour simuler un réservoir, ainsi que des services financiers, tels que l'évaluation des risques. De telles applications constituent rarement les systèmes les plus rapides au monde, mais elles indiquent que l'informatique haute performance joue un rôle plus important dans davantage d'applications d'entreprise. Cray a parlé d'une progression régulière dans l'utilisation de modèles plus volumineux et plus détaillés dans toutes les disciplines scientifiques et techniques, et dans la combinaison de charges de travail traditionnelles et d'analyses.
J'ai également été intéressé par l'annonce par la Linux Foundation d'un nouvel effort appelé OpenHPC, conçu pour créer davantage de standards ouverts dans le monde du calcul intensif. C'est une idée intéressante, et qui semble attirer de nombreux joueurs importants.
Un certain nombre de nouveaux systèmes sont en préparation. IBM construit actuellement une nouvelle machine appelée Summit at Oak Ridge National Laboratories (ORNL) et une autre appelée Sierra at Lawrence Livermore National Laboratory (LLNL), toutes deux basées sur des processeurs à architecture IBM Power, des GPU Nvidia Tesla et des interconnexions Mellanox. Summit devrait livrer 150 à 300 petaflop / s en pointe et Sierra à plus de 100 pétaflops / s.
En outre, Intel et Cray construisent actuellement une nouvelle machine appelée Aurora, basée sur les futurs processeurs Knights Hill Intel Xeon Phi pour l’Argonne Leadership Computing Facility (appartenant à Argonne National Labs), qui vise 150 pétaflops en 2018. font partie d'un programme du ministère de l'Énergie appelé Collaboration des laboratoires nationaux (CORAL) Oak Ridge, Argonne et Lawrence Livermore, visant à accélérer le développement du calcul haute performance, et plus précisément du projet FastForward 2.
Néanmoins, nous avons encore un long chemin à parcourir pour nous rendre à "l'informatique exascale".
Dans l’intervalle, plusieurs annonces concernant les processeurs sont de bon augure pour l’avenir. Nvidia en particulier a poussé l'utilisation de superordinateurs pour les applications Web à très grande échelle, en particulier l'apprentissage automatique. Il a annoncé quelques produits un peu bas de gamme: la carte Tesla M40 avec 3072 cœurs CUDA, qu’elle était capable de produire jusqu’à 7 téraflops / s à simple précision, visant principalement la formation en "apprentissage en profondeur", et le M4, une carte d'alimentation inférieure avec 1024 cœurs et 2, 2 téraflops / s à simple précision, qui peut être utilisée pour l'inférence d'apprentissage en profondeur ainsi que pour des tâches telles que le traitement d'images et de vidéos. En outre, la société a annoncé une nouvelle "suite hyperscale" avec des applications destinées aux plus grands sites informatiques. Les deux nouveaux produits matériels sont basés sur la technologie de traitement 28 nm et sur l’architecture Maxwell de la société.
La société a annoncé deux architectures complémentaires, connues sous le nom de Pascal, prévue pour l’année prochaine, et de Volta, qui le suivra. Intel s'est concentré sur la manière dont le HPC affecte la science, et sa description de la façon dont il utilise son propre superordinateur - actuellement classé 99ème au top 500 - m'a intriguée pour aider à concevoir ses propres processeurs. En particulier, la société a déclaré utiliser un million d’heures de processeur pour concevoir les masques photographiques destinés aux processeurs de la prochaine génération.
Une grande partie de l'activité d'Intel a été concentrée sur Knights Landing, la prochaine version de sa puce Xeon Phi, qui peut être utilisée comme accélérateur mais également démarrée; et sa structure Omni-Path. Bien qu'Intel prévoie désormais une disponibilité générale au premier semestre 2016, quelques clients ont rapidement accès à Knights Landing. Actuellement, Cray teste un grand système Knights Landing en vue de la livraison d’un nouveau supercalculateur appelé Cori pour le Centre national de calcul scientifique de la recherche énergétique (NERSC) et des laboratoires nationaux Los Alamos et Sandia, l’année prochaine. Bull, une unité de l'intégrateur de systèmes français Atos, a également reçu les premières versions de Knights Landing pour préparer le système Tera 1000 qu'il construit pour le Commissariat à l'énergie atomique et aux énergies alternatives. Argonne Leadership Computing Facility travaille sur un système appelé Theta, dont la livraison est prévue pour l'année prochaine, et Sandia National Laboratories travaille avec Penguin Computing pour mettre à niveau plusieurs systèmes qui utilisent des générations antérieures de co-processeurs Xeon Phi.
Intel avait précédemment annoncé qu'il y aurait trois versions différentes de Knights Landing: un processeur hôte de base (capable de démarrer automatiquement), un processeur hôte avec une structure Omni-Path intégrée et une carte d'accélérateur PCIe. La puce elle-même sera composée de 36 tuiles, chacune avec deux cœurs de processeur (un total de 72 cœurs), quatre unités de traitement vectoriel (deux par cœur), 1 Mo de mémoire cache N2 partagée et un agent de mise en cache pour maintenir la cohérence. et Intel a déclaré qu'il devrait offrir des performances scalaires environ trois fois supérieures à celles du processeur Knights Corner, avec des performances maximales de 3 téraflops / s et de 6 téraflops / s en simple précision. Il utilise également un nouveau système de mémoire appelé MCDRAM, une mémoire intégrée qui contient plus de trois fois la bande passante disponible par rapport à la transmission DDR4, qui semble être une variante de l’architecture Hybrid Memory Cube dont Intel et Micron ont parlé. Au salon, Cray avait un système prototype comportant un système d'initialisation Knights Landing, et un certain nombre d'autres fournisseurs montraient des systèmes conçus pour Knights Landing. Cette version de Xeon Phi devrait être suivie d'une version appelée Knights Hill, qui doit être construite sur le processus à venir de 10 nm.
En outre, Fujitsu a parlé un peu plus de son projet Flagship 2020, basé sur une nouvelle puce connue sous le nom de FX100 à 32 cœurs. Cela devrait permettre de quadrupler les performances en virgule flottante par rapport au FX10 actuel et, à l'instar de Knights Landing, le FX100 de Fujitsu utilisera également une version de l'architecture Hybrid Memory Cube. De plus, NEC a un projet appelé Aurora (non lié au projet CORAL), basé sur le suivi de la puce SX-ACE mais avec une plus grande bande passante mémoire. Ceci est prévu pour 2017.