Accueil Réflexion prospective De grands changements s'annoncent enfin pour les superordinateurs

De grands changements s'annoncent enfin pour les superordinateurs

Vidéo: DADJU - Dieu Merci ft. Tiakola (Clip Officiel) (Novembre 2024)

Vidéo: DADJU - Dieu Merci ft. Tiakola (Clip Officiel) (Novembre 2024)
Anonim

Si l’on en retient la conférence ISC 17 sur les superordinateurs de cette semaine, il semble que le monde des supercalculateurs connaîtra de grandes améliorations au cours des deux prochaines années, mais la mise à jour de la liste biannuelle du Top 500 des supercalculateurs les plus rapides au monde n’était pas très différente de celle de la version précédente.

Les ordinateurs les plus rapides au monde restent les deux énormes machines chinoises qui figurent en tête de liste depuis quelques années: l’ordinateur Sunway TaihuLight du Centre national de superinformatique de Chine à Wuxi, avec des performances soutenues de plus de 93 pétaflops (93 000 milliards de virgule flottante) opérations par seconde); et l'ordinateur Tianhe-2 du centre national chinois Super Computer de Guangzhou, avec des performances soutenues de plus de 33, 8 pétaflops. Celles-ci restent de loin les machines les plus rapides.

Le nouveau numéro trois est le système Piz Daint du Swiss National Supercomputing Center, un système Cray utilisant Intel. Xeons et le Nvidia Tesla P100s, qui a été récemment mis à niveau pour lui donner une performance soutenue de 19, 6 petaflops sur Linpack, soit le double de son total précédent. Cela l'a déplacé du numéro huit sur la liste.

Cela ramène à la quatrième place le système Titan du laboratoire national Oak Ridge - le système Titan -, ce qui en fait la première fois en vingt ans qu'il n'y a pas de système américain parmi les trois premiers. Le reste de la liste reste inchangé, les États-Unis représentant toujours cinq des dix premiers au classement général et le Japon deux.

Même si la liste des ordinateurs les plus rapides n'a pas beaucoup changé, il y a de gros changements ailleurs. Sur la liste Green 500 des systèmes les plus économes en énergie, neuf des dix meilleurs ont changé. En haut se trouve le système Tsubame 3.0, un système HPE ICE XA modifié du Tokyo Institute of Technology basé sur un cœur Xeon E5-2680v4 14, une interconnexion Omni-Path et le Tesla P100 de Nvidia, qui permet d'atteindre 14, 1 gigaflops par watt. Il s'agit d'un saut énorme par rapport au DGX Saturn V de Nvidia, basé sur la plate-forme DGX-1 de la société et les puces P100, numéro un sur la liste de novembre mais numéro dix cette fois, à 9, 5 gigaflops / Watt. Le P100 fait partie de neuf des dix meilleurs systèmes Green500.

Briser 10 gigaflops / watt est un gros problème car cela signifie qu'un système exaflop hypothétique construit à l'aide de la technologie actuelle consommerait moins de 100 mégawatts (MW). C'est encore trop - l'objectif est de 20-30 MW pour un système exaflop, ce que les chercheurs espèrent voir dans les cinq prochaines années environ - mais c'est un énorme pas en avant.

Comme dans la liste Top 500, il n’ya eu que des modifications mineures sur des listes similaires avec différents points de repère, tels que le point de repère des gradients conjugués à haute performance (HPCG), dans lequel les machines ont tendance à ne voir que 1 à 10% de leurs performances maximales théoriques et où système - dans ce cas, la machine Riken K - fournit toujours moins de 1 pétaflop. Les systèmes TaihuLight et Piz Daint sont tous deux sur la liste. Lorsque les chercheurs parlent d'une machine exaflop, ils ont tendance à vouloir dire le point de référence de Linpack, mais HPCG peut être plus réaliste en termes de performances réelles.

L’émergence de l’informatique GPU en tant qu’accélérateur - utilisant presque toujours des processeurs GPU Nvidia tels que le P100 - a été le changement le plus visible de ces listes ces dernières années, suivi de l’introduction de l’accélérateur propre à Intel, le Xeon Phi à plusieurs cœurs. la dernière version de Knights Landing). La liste Top 500 actuelle comprend 91 systèmes utilisant des accélérateurs ou des coprocesseurs, dont 74 avec GPU Nvidia et 17 avec Xeon Phi (trois autres utilisant les deux); un avec un processeur graphique AMD Radeon comme accélérateur et deux utilisant un processeur multicœurs de PEZY Computing, un fournisseur japonais. Treize systèmes supplémentaires utilisent maintenant le Xeon Phi (Knights Landing) comme unité de traitement principale.

Mais bon nombre des changements les plus importants apportés aux supercalculateurs sont encore à l’horizon, car nous commençons à concevoir des systèmes plus grands conçus avec ces concepts. Par exemple, le nouveau MareNostrum 4 du Supercomputing Center de Barcelone, qui figurait au top 13 du palmarès 13. A ce jour, il s’agit d’un système Lenovo basé sur la prochaine version Skylake-SP de Xeon (officiellement appelée Xeon Platinum 8160). processeur de base). Ce qui est intéressant ici, ce sont les trois nouveaux clusters de "technologies émergentes" prévus pour les deux prochaines années, dont un avec des processeurs IBM Power 9 et des GPU Nvidia, conçus pour offrir une capacité de traitement maximale de plus de 1, 5 pétaflops; une seconde basée sur la version de Xeon Phi de Knights Hill; et un troisième basé sur des processeurs ARMv8 64 bits conçus par Fujitsu.

Ces concepts sont utilisés dans un certain nombre d'autres projets majeurs de calcul intensif, notamment plusieurs parrainés par le US Department of Energy dans le cadre de sa collaboration CORAL aux laboratoires Oak Ridge, Argonne et Lawrence Livermore National. Le premier sommet devrait être Summit at Oak Ridge, qui utilisera les processeurs IBM Power 9 et les GPU Nvidia Volta, et qui devrait fournir plus de 150 à 300 pétaflops de pointe; suivi par Sierra chez Lawrence Livermore, qui devait livrer plus de 100 pétaflops en pointe.

Nous devrions ensuite voir le supercalculateur Aurora au Laboratoire national d’Argonne, basé sur la version de Xeon Phi de Knights Hill et construit par Cray, qui devrait fournir 180 pics de pétaflops. Les systèmes CORAL doivent être en place et fonctionnement l'année prochaine.

Pendant ce temps, les groupes chinois et japonais ont également planifié des mises à niveau, utilisant principalement des architectures uniques. Cela devrait être intéressant à regarder.

Un changement encore plus important semble être un peu plus éloigné: le passage à l'apprentissage automatique, généralement sur des unités de traitement massivement parallèles au sein même du processeur. Alors que le numéro Linpack fait référence à des performances 64 bits ou double précision, il existe certaines classes d'applications, y compris de nombreuses applications basées sur un réseau neuronal profond, qui fonctionnent mieux avec des calculs à simple ou même demi-précision. Les nouveaux processeurs en profitent, comme l'annonce récente de Volta V100 par Nvidia et la prochaine version de Xeon Phi par Knights Mill. Lors du salon, Intel a annoncé que cette version, qui devrait être en production au quatrième trimestre, comporterait de nouveaux jeux d’instructions pour le "calcul de faible précision", appelées QFMA (Quad Fused Multiply Add) et QVNNI (Quad Virtual Neural Network Instruction)..

Je suppose que ces concepts pourraient également être appliqués à d'autres architectures, telles que les TPU de Google, les FPGA d'Intel et les puces Nervana.

Même si nous ne voyons pas de grands changements cette année, nous devrions nous attendre à en voir davantage. Le concept d'une machine exascale (1000 téraflops) est toujours en vue, mais il impliquera probablement un certain nombre de changements encore plus importants.

De grands changements s'annoncent enfin pour les superordinateurs