Ouvrir la voie au Terabit Ethernet

Ouvrir la voie au Terabit Ethernet Malgré les progrès de la technologie Wi-Fi et l'introduction récente du Wi-Fi XNUMX, Ethernet reste la technologie privilégiée par les entreprises lorsqu'elles ont besoin de déplacer rapidement de grandes quantités de données, en particulier dans les centres de données. Bien que la technologie derrière Ethernet ait aujourd'hui plus de quarante ans, de nouveaux protocoles ont été développés au fil des années, permettant d'envoyer encore plus de gigaoctets de données. Pour en savoir plus sur les dernières technologies, protocoles, avancées et l'avenir du Gigabit Ethernet et peut-être même un jour bientôt du Terabit Ethernet, TechRadar Pro s'est entretenu avec Tim Klein, PDG de la société de connectivité de stockage ATTO.

Ethernet a été introduit pour la première fois en XNUMX, comment la technologie a-t-elle évolué depuis et quelle est sa place dans le centre de données d'aujourd'hui ?

Aujourd'hui, vieille de plus de quatre décennies, la technologie Ethernet a apporté des améliorations significatives, mais de nombreux éléments ressemblent également à ceux de leur introduction initiale. Initialement développés pour que les scientifiques puissent partager de petits morceaux de données à dix mégabits par seconde (Mbps), nous voyons désormais des centres de données géants partager des ensembles massifs de données non structurées sur des réseaux Ethernet, et une feuille de route qui atteindra Terabit Ethernet dans quelques années seulement. . Le développement exponentiel des données, entraîné par de nouveaux formats tels que les images numériques, a généré une demande énorme et ces premières implémentations de stockage partagé sur Ethernet ne pouvaient pas répondre aux besoins de performances ni gérer la congestion avec une latence déterministe. C'est pourquoi des protocoles tels que Fibre Channel ont été développés spécifiquement pour le stockage. Au fil des années, de nombreuses innovations telles que le déchargement intelligent et le RDMA ont été introduites afin qu'Ethernet puisse répondre aux exigences des données non structurées et surmonter les impasses qui peuvent survenir lors du transfert de grands ensembles de données. Les dernières normes Ethernet haut débit, telles que 4/10/25/40/50GbE, constituent désormais l'épine dorsale du centre de données moderne.

(Crédit d'image: Pixabay)

Les applications d'aujourd'hui exigent des performances de plus en plus élevées. Quels sont les défis liés à la configuration de protocoles plus rapides ? Le logiciel peut-il aider ici ?

Le réglage est extrêmement essentiel de nos jours en raison de la demande de performances supérieures. Chaque système, qu'il soit client ou serveur, doit s'adapter aux exigences de chaque flux de travail spécifique. Le grand nombre de protocoles de partage de fichiers et d’exigences en matière de flux de travail peut être écrasant. Vous avez peut-être déjà admis que la moitié de votre bande passante avait été détruite par une surcharge d'incidents et de pertes de paquets, ce qui vous ralentissait à un rythme vertigineux. De nos jours, il existe plusieurs méthodes pour optimiser les performances et régler les adaptateurs Ethernet pour des charges de travail très intensives. Les pilotes matériels sont désormais dotés d'algorithmes intégrés qui améliorent l'efficacité ; les moteurs de déchargement TCP réduisent la surcharge de la pile réseau. Le déchargement de réception important (LRO) et le déchargement de segmentation TCP (TSO) peuvent également être intégrés au matériel et aux logiciels pour faciliter le transfert de gros volumes de données non structurées. L'ajout de tampons, tels qu'une file d'attente de réception continue, accélère la livraison des packages, augmente l'équité et améliore les performances. Les technologies plus récentes, telles que RDMA, permettent un accès direct à la mémoire en contournant la pile réseau du système d'exploitation et en éliminant pratiquement la surcharge.

Qu’est-ce qui motive l’adoption des interfaces 10/25/50/100GbE ?

La demande de solutions de stockage plus grandes et plus efficaces et l'enthousiasme pour les nouvelles technologies Ethernet telles que RDMA et NVMe-over-Fabrics stimulent l'adoption de l'Ethernet haut débit dans les centres de données modernes. Dix Gigabit Ethernet (10GbE) est désormais l'interconnexion dominante pour les adaptateurs de classe serveur, et le 40GbE a été rapidement introduit pour repousser les limites en combinant 4 voies de trafic 10GbE. Cela a parfois évolué vers la norme 25/50/100GbE qui utilise vingt-cinq voies Gigabit. Les réseaux utilisent désormais un mélange de toutes les vitesses 10/25/40/50/100 GbE, avec 50 GbE au cœur et 100 GbE en périphérie. La possibilité de mélanger et d'adapter les vitesses, de concevoir des chemins pour leur donner toute la puissance dont ils ont besoin et d'équilibrer le centre de données du cœur à la périphérie, conduit à l'adoption rapide de la norme XNUMX/XNUMX/XNUMX GbE. Les nouvelles technologies telles que RDMA ouvrent de nouvelles opportunités aux entreprises pour utiliser des adaptateurs réseau et des stockages en réseau (NAS) avec une latence déterministe pour gérer les charges de travail qui devaient auparavant être gérées par des réseaux informatiques. Stockage (SAN) plus coûteux utilisant la fibre. Adaptateurs de canal qui nécessitent une assistance plus spécialisée. Plus récemment, nous avons vu NVMe-Over-Fabrics, qui utilise le transport RDMA pour partager la technologie NVMe de pointe dans une structure de stockage. Cent cartes réseau GbE avec RDMA ont ouvert la porte à la structure de stockage NVMe qui atteint les performances les plus rapides du marché aujourd'hui. Ces niveaux de vitesse et de fiabilité auparavant impensables permettent aux entreprises de faire plus que jamais avec leurs données.

Qu’est-ce que le RDMA et quel est son impact sur la technologie Ethernet ?

L'accès direct à la mémoire à distance (RDMA) permet aux adaptateurs réseau intelligents d'accéder à la mémoire directement à partir d'un autre système sans passer par le processus TCP traditionnel et sans intervention du processeur. Les transferts traditionnels reposaient sur la pile réseau du système d'exploitation (TCP/IP) pour communiquer, ce qui entraînait une surcharge considérable, entraînant une perte de performances et limitant ce qui était possible avec Ethernet et le stockage. RDMA permet désormais des transferts sans perte qui éliminent pratiquement les frais généraux avec une augmentation massive de l'efficacité en économisant des cycles CPU. Les performances augmentent et la latence est réduite, permettant aux organisations de faire plus avec moins. RDMA est en fait une extension de DMA (accès direct à la mémoire) et contourne le CPU pour permettre des opérations « zéro copie ». Ces technologies font partie intégrante du stockage Fibre Channel depuis de nombreuses années. Cette latence déterministe qui a fait de Fibre Channel le premier choix pour les entreprises et les charges de travail lourdes est désormais gratuite avec Ethernet, permettant aux organisations de toutes tailles de tirer plus facilement parti du stockage partagé haut de gamme.

Comment NVMe est-il intégré ?

L'intégration de NVMe à Ethernet se fait via le protocole NVMe-over-Fabrics. C’est tout simplement le moyen le plus rapide de transférer des fichiers via Ethernet aujourd’hui. NVMe lui-même a été développé pour tirer parti des SSD et du stockage flash modernes grâce à la mise à niveau des protocoles SATA/SAS. NVMe place encore plus la barre en tirant parti de la capacité de la mémoire non volatile à fonctionner en parallèle. Puisque NVMe est une technologie de stockage à connexion directe, la prochaine étape vers le stockage partagé est celle où Ethernet ou Fibre Channel entre en jeu : amener NVMe dans une structure de stockage partagé.

RAM

(Crédit d'image: Gorodenkoff / Shutterstock)

Quelles sont les exigences Ethernet pour les technologies de stockage telles que le disque RAM et le stockage intelligent ?

Les cartes réseau intelligentes sont un terme partiellement nouveau désignant la capacité des contrôleurs réseau à gérer des opérations qui relevaient auparavant du fardeau d'un processeur. Le déchargement du processeur système améliore l’efficacité globale. En poussant ce terme encore plus loin, les fabricants de cartes réseau proposent la technologie FPGA (Field Programmable Gate Array) qui permet de développer et de coder des fonctionnalités d'application spécifiques, notamment le déchargement et l'accélération des données, sur le FPGA. S'appuyant sur la couche matérielle, ces cartes réseau sont incroyablement rapides et offrent un énorme potentiel à l'avenir pour ajouter davantage d'innovations à cette couche. Disk RAM Smart Storage fait progresser ce domaine en intégrant du matériel d'accélération des données dans les périphériques de stockage qui utilisent de la RAM volatile (qui est plus rapide que la mémoire non volatile utilisée aujourd'hui dans les appareils NVMe). Cela se traduit par un stockage incroyablement rapide avec la possibilité d’optimiser les charges de travail lourdes. La combinaison d'un stockage RAM ultra-rapide, d'un superviseur NIC intégré et d'un FPGA avec un déchargement intelligent et une accélération des données offre un énorme potentiel pour un stockage à très haute vitesse. Le disque RAM et le stockage intelligent n'existeraient pas sans les dernières innovations en matière d'Ethernet RDMA et de NVMe-over-Fabrics.

Quel avenir pour la technologie Ethernet ?

L'Ethernet XNUMX Gigabit commence déjà à se propager des solutions HPC aux centres de données. La norme double les voies à cinquante GbE chacune et il existe une feuille de route remarquable qui en verra une avec cinq térabits dans quelques années seulement. Le PCI Express XNUMX jouera un rôle clé en permettant ces vitesses plus élevées, et les entreprises continueront à chercher des moyens d'optimiser la puissance, d'accélérer les vitesses de transfert et de trouver des moyens de gérer les opérations du processeur. Et GPU avec pilotes réseau et FPGA.