Vidéo: Yahoo! Japan's OCP Supply Chain & Deployment using MiTAC OCP Accepted™ and OCP Inspired Servers (Novembre 2024)
La tendance la plus intéressante en matière de matériel informatique aujourd'hui est le projet Open Compute et ses efforts pour passer à des normes communes et efficaces pour les équipements de centre de données, plutôt que le matériel et les logiciels propriétaires que nous avons aujourd'hui. Lorsque nous avons entendu parler d'Open Compute pour la première fois, cela semblait être un bon moyen pour les sociétés Web hyper-scale de concevoir des serveurs plus écoénergétiques et plus faciles à maintenir. Mais depuis lors, Open Compute englobe de nombreuses autres formes de matériel, du stockage au réseau, et s’applique de plus en plus à l’informatique d’entreprise, et pas seulement aux éditeurs de logiciels cloud.
Tout cela était évident lors du sommet du projet Open Compute de la semaine dernière, au cours duquel diverses entreprises ont introduit un nouveau matériel conçu pour fonctionner avec le matériel et les spécifications Open Compute, des serveurs à la mise en réseau.
"En 2011, nous avons planté quelques graines", a déclaré Frank Frankovsky, président de la Fondation OCP, sur Facebook, lors de l'ouverture du sommet. "Que se passerait-il si nous appliquions les principes de l'open source à l'espace matériel? Le travail que nous effectuons ensemble transforme fondamentalement le secteur."
Nouvelles puces et spécifications Serveurs Push ARM
Certaines choses annoncées pendant la semaine se sont démarquées. La grande majorité des serveurs, dans le monde réel et dans le projet Open Compute, sont basés sur les processeurs Intel Xeon et l'architecture x86. Même si cela ne devrait pas changer de sitôt, des concurrents comme ARM et AMD avaient quelques alternatives intéressantes.
AMD a annoncé que son premier processeur CPU basé sur ARM 64 bits, l'Opteron A1100 Series (nom de code), 28 nm, a été annoncé par Andrew Feldman, directeur général et vice-président de l'entreprise, dans un " ne devrait pas être largement disponible avant la fin de l'année. Le A1100 comprend des processeurs ARM Cortex-A57 à 4 ou 8 cœurs, jusqu'à 4 Mo de mémoire partagée L2 et 8 Mo de mémoire cache N3 partagée, deux canaux de mémoire DDR3 ou DDR4 avec ECC, ARM TrustZone pour la sécurité et des co-processeurs pour le cryptage et les données. compression.
Feldman a parlé d’un kit de développement A Series avec le processeur A1100 et a déclaré que la société travaillait en étroite collaboration avec le groupe Linaro Enterprise et les éditeurs de logiciels afin de développer un système d’exploitation Linux compatible basé sur Fedora de Red Hat, une pile LAMP optimisée, une prise en charge Java et autres. logiciels, y compris les applications, les hyperviseurs, les compilateurs et les simulateurs. Feldman a présenté une petite conception de micro-serveur, utilisant les spécifications d'emplacement commun pour cartes mères d'AMD Opteron A-Series et d'Open Compute Project, connue sous le nom de "Group Hug", et a annoncé que l'entreprise l'apportait au projet afin que les fabricants de matériel commencer à construire des serveurs basés sur elle.
Tandis que Feldman a déclaré qu'AMD était attaché aux systèmes x86 et ARM, il a fortement suggéré que l'avenir du centre de données soit orienté vers les serveurs basés sur ARM. "Dans l’histoire des ordinateurs, les processeurs les plus petits, les plus économiques et les plus volumineux ont toujours été gagnants", a déclaré Feldman. "Il n'y a pas d'exception à cela." Il a indiqué que l'année dernière, 8 milliards de processeurs ARM ont été livrés, contre 13 millions de processeurs de serveur x86. (Cela semble être une comparaison idiote, car il inclut les processeurs ARM utilisés dans toutes sortes d'applications autres que celles de centre de données, mais exclut les x86 utilisés dans tout sauf les serveurs.) Feldman a prédit que d'ici 2019, ARM détiendra un quart du marché des serveurs et des serveurs personnalisés. Les SoC ARM seront la norme pour les grands centres de données, tandis que les processeurs x86 plus petits et plus efficaces domineront le marché des serveurs x86.
Toujours du côté des puces, Applied Micro a déclaré que son X-Gene 2 échantillonnera ce printemps avec ce qui, selon la société, sera la première implémentation ARMv8 conçue pour les serveurs. Feldman a également déclaré que cela serait suivi l'année prochaine par un X-Gene 3 avec 16 cœurs ARM ou plus réalisés sur un processeur FinFET.
Une des préoccupations de certaines personnes à propos des serveurs ARM est la fragmentation. Pour remédier à cela, Ian Drew, vice-président exécutif du développement commercial et directeur du marketing d’ARM, a annoncé la création d’une nouvelle architecture de système de base de serveurs. L'idée est de disposer d'une spécification matérielle de base pour les développeurs de systèmes d'exploitation et de microprogrammes et d'une seule image de système d'exploitation pour tous les serveurs basés sur ARMv8-A. "Il s'agit d'une spécification matérielle écrite à la fois par des spécialistes du matériel et des logiciels", a déclaré Drew. Il a noté qu'il ne s'agissait pas d'une standardisation dans laquelle tout le monde serait monolithique, mais plutôt conçu pour que la différenciation se produise au bon niveau et au bon moment.
Drew a déclaré qu'ARM souhaitait s'assurer que tout le monde adhérait au programme. Il est donc accessible au public sur le site Web d'ARM. Il bénéficie du soutien des équipementiers et de plusieurs partenaires dans les semi-conducteurs, notamment AMD, Applied Micro, Broadcom et Cavium.
Microsoft rejoint OCP
Microsoft a annoncé son intention de rejoindre OCP et de fournir un ensemble complet de spécifications pour les serveurs qui alimentent Office 365, Windows Azure et Bing. Le vice-président de la société, Bill Laing, a déclaré que la société souhaitait innover dans les centres de données en nuage. Cette conception initiale est très différente du rack 21 pouces standard fourni à l'origine par Facebook, qui a défini la plupart des serveurs Open Compute à ce jour. Au lieu de cela, il s'agit d'un châssis 12U qui s'intègre dans un rack standard avec une lame de calcul, une lame de stockage, un fond de panier partagé, une alimentation et un refroidissement partagés et un nœud de gestion.
Laing a déclaré que ces conceptions peuvent être pré-assemblées et ont une intégration minimale sur site, car les plateaux complets peuvent être retirés et remplacés. En comparaison avec un serveur d'entreprise traditionnel, cette conception permet de réaliser des économies de coûts allant jusqu'à 40%, des gains d'efficacité énergétique jusqu'à 15% et une amélioration de 50% des délais de déploiement et de maintenance. L'idée est de permettre aux clients de bénéficier de ces mêmes avantages et de "faire évoluer l'informatique en nuage comme si nous avions transformé l'informatique de centre de données d'entreprise".
Microsoft exploite plus de 200 services cloud dans le monde, servant plus d'un milliard de clients et plus de 20 millions d'entreprises sur plus de 90 marchés, et déploie actuellement plus d'un million de serveurs dans ses centres de données, a déclaré Laing.
Open Compute ajoute la mise en réseau
Un nouveau projet est le réseautage, qui a été lancé officiellement en mai dernier. "C'est un peu étrange que l'open source ait eu un impact incroyablement positif sur les logiciels, les serveurs, les centres de données et le stockage. Nous disposons de ces îlots de technologie open source conçus avec amour, mais ce qui les relie entre eux reste une boîte noire propriétaire", Frankovsky a dit. "Nous avons donc décidé d'ouvrir cette boîte noire et d'offrir aux clients souplesse et choix en matière de réseau et de transparence. Ce qui attire les gens vers les logiciels open source, c'est ce qui nous attire vers le matériel open source. C'est la curiosité naturelle de l'homme ce travail et comment cela fonctionnerait-il différemment si je le démontais et le remettais comme je le voulais?"
Quelques mois plus tard, l'OCP avait reçu des contributions de Broadcom, Intel, Mellanox, Big Switch et Cumulus Networks.
Alors qu'un certain nombre de sociétés ont parlé de commutateurs haut de gamme non propriétaires, j'ai été intrigué de voir Dell annoncer un accord avec Cumulus Networks en vertu duquel le fabricant de matériel revendrait le logiciel de réseau basé sur Linux de Cumulus au-dessus du réseau compatible OCP Matériel.
L’annonce par Seagate de la contribution de sa plate-forme de stockage Kinetic à OCP, qui permet aux applications de se connecter directement au stockage via Ethernet plutôt que de passer par des serveurs de stockage traditionnels, a également été intéressante au salon.
Optimisation de l'infrastructure Full-Stack de Facebook
Compte tenu de son rôle clé dans le lancement d'Open Compute, il n'est pas étonnant que Facebook soit l'un des leaders dans l'adoption de la plupart des technologies. Jay Parikh, vice-président de l'infrastructure de Facebook, a expliqué: "Pourquoi tout ce que Facebook fait avec l'infrastructure est réellement important". Au début, l'équipe d'infrastructure de Facebook se concentrait uniquement sur le maintien des activités, a déclaré Parikh. Mais au fur et à mesure de sa croissance, l’équipe a rapidement atteint les limites du matériel et des logiciels. Ils ont eu des "échecs spectaculaires", a-t-il déclaré, mais ils ont appris une chose fondamentale: tous vos problèmes sont amplifiés.
En cours de route, ils ont créé une nouvelle conception de serveur plus économique et économe en énergie, facilitant la gestion et la réparation des serveurs. Aujourd'hui, Facebook dispose d'un centre de données personnalisé avec des racks personnalisés, des serveurs de calcul et de stockage, ainsi que des réseaux.
"Au fil du temps, nous avons été obligés de prendre le contrôle de chaque élément de la pile parce que nous devions suivre la croissance", a déclaré Parikh. Il a parlé du concept "d'optimisation de l'infrastructure à pile complète", y compris les logiciels, la mise en réseau, les serveurs et le stockage. Désormais, la société utilise uniquement du matériel Open Compute Project. "Nous économisons réellement une tonne d'argent", a-t-il déclaré. Au cours des trois dernières années, l’optimisation complète de la pile a permis à Facebook d’économiser plus de 1, 2 milliard de dollars.
Parikh a ensuite fait le point sur la chambre froide de Facebook. Il a ajouté que le premier nouvel entrepôt frigorifique de la société, d'une capacité de 30 pétaoctets, était en service et qu'un deuxième serait bientôt opérationnel, ce qui porterait la capacité totale de stockage à "plus de 100 pétaoctets" au cours des prochains mois. Chaque installation est conçue pour stocker un maximum de trois exaoctets, ce qui laisse beaucoup de place à la croissance.
Parikh a présenté pour la première fois un prototype du serveur de stockage de Facebook utilisant des disques Blu-ray (une idée évoquée par la société lors du sommet de l'année dernière). Le serveur de stockage contient 10 000 disques Blu-ray, pour un total de 1 pétaoctet de stockage, et Facebook prévoit d'augmenter la densité à 5 pétaoctets par rack. Par rapport au système actuel de stockage à froid basé sur disque dur, les serveurs Blu-ray pourraient réduire les coûts de moitié et la consommation d’énergie de 80%, a déclaré Parikh. Facebook prévoit de tester un système de production plus tard cette année et utiliserait les serveurs Blu-ray pour le stockage frigorifique des photos et vidéos d'utilisateurs rarement consultés.
Open Compute et petites entreprises
Une des choses qui m'a le plus intriguée lors du sommet a été de montrer que ce ne sont pas seulement des entreprises de type cloud telles que Facebook, Rackspace et Microsoft qui ont adopté le concept. Au lieu de cela, Frankovsky a souligné que les grandes entreprises telles que Bloomberg, Fidelity et Goldman Sachs étaient en train de déployer Open Compute.
Il est intéressant de noter qu'il existe désormais plus de moyens d'utiliser des composants de rack standard de 19 pouces avec un conteneur Open Rack de 21 pouces et inversement. Par exemple, Frankovsky a souligné que Fidelity était livré avec un Open Bridge Rack à un rack EIA standard dans un Open Rack. Hyve Solutions a pris certaines cartes système Open Compute et les a reconditionnées dans des plateaux standard de 19 pouces, et a ensuite redonné la conception à la fondation.
Lors d'une table ronde, Marc Andreessen, cofondateur et associé principal d'Andreessen Horowitz, et Andy Bechtolsheim, fondateur, directeur du développement et président d'Arista Networks, ont expliqué comment la tendance vers des centres de données moins coûteux changeait les entreprises.Andreessen a déclaré qu'il existait désormais une opportunité radicale de combiner des logiciels à source ouverte et du matériel à source ouverte pour réduire le coût des systèmes et fournir des services en nuage dans des domaines tels que les soins de santé et l'éducation. Les nouvelles entreprises peuvent fonctionner presque entièrement sur le cloud. En conséquence, 500 000 $ permettent maintenant à une start-up de deux ans de lancer un produit. Alors que Facebook (Andreessen siège au conseil d'administration) dispose d'un important budget d'investissement, a-t-il dit, s'il avait existé en 1999, il aurait fallu un budget d'investissement 50 à 100 fois supérieur à ce qu'il est actuellement, dépensant peut-être 100 milliards de dollars par an en capital l'équipement, ce qui est impossible. Le développement de matériel à moindre coût et à plus gros volume est ce qui rend possible des services tels que Facebook ou Google. Si vous prévoyez encore 10 ans de plus, a-t-il déclaré, les services possibles seront époustouflants.
"Toute la croissance est dans le nuage", a déclaré Bechtolsheim, les dépenses informatiques traditionnelles étant stables ou en baisse. Arista Networks développe des équipements de réseau qui répondent aux besoins de ces centres de données en nuage. Il a déclaré qu'il était logique de standardiser le matériel réseau. Selon M. Bechtolsheim, jusqu'à ce que le projet Open Compute se concrétise, l'industrie ne disposait jamais d'un forum pour l'innovation matérielle ouverte et collaborative. Bien que quelques sociétés fabriquent encore leurs propres puces, il estime qu’il s’agit d’un modèle traditionnel. La chose à propos de la mise en réseau est que vous avez besoin d’une pile de logiciels qui fonctionne réellement. Le matériel est simple, les logiciels sont difficiles, explique-t-il. C'est pourquoi Arista dispose d'une équipe logicielle beaucoup plus importante.
Bechtolsheim a déclaré que l’arrivée de l’informatique 64 bits et des SoC ARM avec des fréquences plus élevées (au moins 2 GHz) permettrait de rendre ARM viable dans le centre de données. Cela arrivera probablement quand cela aura du sens, a-t-il déclaré. Il a également déclaré que "pour la défense d'Intel", il a fait un travail remarquable en exploitant sa technologie de processus afin de fournir des processeurs plus efficaces et moins coûteux. Intel est un concurrent formidable ici et vous avez besoin de compétitions pour maintenir l'innovation, a-t-il déclaré. Au rythme actuel, le centre de données, qui coûte aujourd'hui 1 milliard de dollars, ne coûtera que 10 000 dollars en 10 ans. Cela permettra à la prochaine génération d'applications.
Pour aider à mieux faire accepter les produits Open Compute, Frankovsky a annoncé un type de licence de technologie différent de la GPL. Toutes les œuvres dérivées seront ainsi restituées, ainsi que la certification du matériel Open Compute par de nouveaux laboratoires à Taïwan et aux États-Unis. Université du Texas à San Antonio.