Ajouter de l'intelligence pour accélérer les performances du réseau
NouvellesL'ajout de processeurs polyvalents plus nombreux et plus rapides aux routeurs, commutateurs et autres équipements de réseau peut améliorer les performances, mais augmente les coûts système et la demande en énergie tout en minimisant les problèmes de latence, cause majeure des problèmes de performances des réseaux..
En revanche, le silicium intelligent minimise ou élimine les points d’arrêt des performances en réduisant le temps de latence pour des tâches de traitement spécifiques.
En 2013 et au-delà, les ingénieurs concepteurs déploieront de plus en plus de silicium intelligent pour tirer le meilleur parti de leurs performances plus élevées et de leur efficacité accrue en termes de coûts et de puissance..
Réseaux d'entreprise
Dans le passé, la loi de Moore était suffisante pour suivre le rythme de la charge de travail croissante en informatique et en réseau. Le matériel et les logiciels ont largement évolué en parallèle: à mesure que les performances du processeur augmentent, des fonctionnalités plus sophistiquées peuvent être ajoutées au logiciel.
Ces améliorations parallèles ont permis de créer un logiciel plus abstrait, permettant de construire des fonctionnalités beaucoup plus avancées plus rapidement et avec moins de temps de programmation..
Aujourd'hui, cependant, ces couches d'abstraction rendent difficile l'exécution de tâches plus complexes avec des performances adéquates..
Les processeurs à usage général, quels que soient leur nombre de cœurs et leur fréquence d'horloge, sont trop lents pour des fonctions telles que la classification, la sécurité cryptographique et la gestion du trafic qui doivent opérer au plus profond de chaque paquet. De plus, ces fonctions spécialisées doivent souvent être exécutées de manière séquentielle, ce qui limite la possibilité de les traiter en parallèle dans plusieurs cœurs..
En revanche, ces traitements spécialisés et d’autres types spécialisés de traitement sont des applications idéales pour le silicium intelligent. Il est de plus en plus courant de disposer de plusieurs moteurs d’accélération intelligents intégrés à plusieurs cœurs dans des processeurs de communication spécialisés System-on-Chip (SoC)..
Le nombre de moteurs d'accélération spécifiques à une fonction disponible continue de croître et la réduction de la géométrie permet désormais d'intégrer davantage de moteurs sur un seul SoC..
Il est même possible d'intégrer la propriété intellectuelle unique d'un fournisseur de système en tant que moteur d'accélération personnalisé au sein d'un SoC. Pris ensemble, ces avancées permettent de remplacer plusieurs SoC par un seul afin de mettre en place des architectures de réseau plus rapides, plus petites et plus efficaces en énergie..
Réseaux de stockage
Le goulot d'étranglement le plus important dans les centres de données aujourd'hui est dû à la différence de cinq ordres de grandeur de la latence d'E / S entre la mémoire principale des serveurs (100 nanosecondes) et les disques durs traditionnels (10 millisecondes)..
La latence vers les réseaux de stockage externes (SAN) et le stockage connecté au réseau (NAS) est encore plus élevée en raison des restrictions de réseau et des performances qui en résultent, lorsqu'une même ressource traite plusieurs demandes simultanées de manière séquentielle dans des files d'attente étendues..
La mise en cache du contenu en mémoire sur un serveur ou un réseau SAN sur une appliance de cache DRAM (RAM dynamique) est une technique éprouvée pour réduire le temps de latence et améliorer ainsi les performances au niveau de l'application..
Mais aujourd'hui, étant donné que la quantité de mémoire possible sur un serveur ou une appliance de cache (mesurée en gigaoctets) ne représente qu'une petite fraction de la capacité d'un seul disque (mesurée en téraoctets), les gains de performances que permet la mise en cache traditionnelle sont insuffisants. faire face au déluge de données.
Les avancées en matière de mémoire flash NAND et de processeurs de stockage flash, associées à des algorithmes de mise en cache plus intelligents, permettent de franchir la barrière d’évolutivité de la mise en cache traditionnelle pour faire de la mise en cache un moyen efficace, puissant et économique d’accélérer les performances des applications..
Le stockage SSD est idéal pour la mise en cache car il offre une latence bien inférieure à celle des disques durs de capacité comparable. Outre la mise à niveau des performances des applications, la mise en cache permet aux serveurs virtualisés d'effectuer plus de travail, à moindre coût, avec le même nombre de licences logicielles..
Le stockage à l'état solide génère généralement les gains de performances les plus élevés lorsque le cache flash est placé directement sur le serveur sur le bus PCIe®. Le logiciel de mise en cache intelligent est utilisé pour placer les données chaudes ou les plus fréquemment consultées dans un stockage flash à faible latence.
Les données chaudes sont accessibles rapidement et de manière déterministe, quelle que soit la charge de travail, car il n’ya pas de connexion externe, pas de réseau intermédiaire vers un réseau SAN ou NAS et aucune possibilité d’encombrement et de retard du trafic associé..
Particulièrement attrayantes pour ceux qui sont chargés de la gestion ou de l’analyse d’afflux massif de données, certaines cartes d’accélération de cache flash prennent désormais en charge plusieurs téraoctets de stockage SSD, permettant le stockage de bases de données entières ou d’autres ensembles de données sous forme de données à chaud..
Les réseaux mobiles
Le volume de trafic sur les réseaux mobiles double chaque année, principalement en raison de l'explosion des applications vidéo. La bande passante d'accès par utilisateur augmente également d'un ordre de grandeur, passant d'environ 100 Mb / s dans les réseaux 3G à 1 Gb / s dans les réseaux LTE évolués à long terme (4G), ce qui entraînera à son tour encore plus d'avantages graphiques. -intensives, applications gourmandes en bande passante.
Les stations de base doivent évoluer rapidement pour gérer les charges croissantes du réseau. Dans l'infrastructure, de nombreuses radios sont maintenant utilisées dans des systèmes d'antennes distribuées de type cloud et les topologies de réseau sont à plat..
Les opérateurs prévoient de fournir une qualité de service avancée avec des services basés sur la localisation et une facturation adaptée aux applications. Comme dans l'entreprise, il est de plus en plus facile de gérer ces tâches complexes en temps réel en ajoutant des moteurs d'accélération intégrés dans le silicium intelligent..
Pour fournir de manière fiable des vitesses de données 4G supérieures à un nombre croissant d'appareils mobiles, les réseaux d'accès ont besoin de cellules plus nombreuses et plus petites, d'où la nécessité de déployer des SoC dans les stations de base..
La réduction du nombre de composants avec les SoC présente un autre avantage important: une consommation d'énergie moindre. De la périphérie au cœur, la consommation d'énergie est désormais un facteur critique dans toutes les infrastructures de réseau.
Les réseaux d'entreprise, les architectures de stockage de centres de données et les infrastructures de réseaux mobiles sont en pleine mutation rapide et complexe. Le meilleur et peut-être le seul moyen de faire face à ces changements et d'exploiter au mieux les opportunités offertes par le déluge de données consiste à adopter des solutions de silicium intelligentes qui se présentent sous de nombreuses formes pour relever les défis des réseaux de nouvelle génération..
- Greg Huff est directeur de la technologie chez LSI. À ce titre, il est chargé de définir la stratégie de croissance future des produits LSI sur les marchés du stockage et des réseaux.