Au cours des cinq dernières années, nous avons vu plus d’innovations que dans les quinze années précédentes ! Ces développements ont un impact important sur l’infrastructure du data center.
L’architecture sur trois niveau du centre de données traditionnel fonctionne bien pour le modèle ‘requête de données – réponse’ répétitif, lui-aussi traditionnel. Cette architecture à trois niveaux est optimisée pour le trafic ‘Nord-Sud’, avec la connectivité Internet en haut, des serveurs et commutateur en bas, et une couche de commutateur entre les deux.
Dans des data centers, comme ceux de Google ou Facebook ou les serveurs cloud, un trafic énorme transite entre les serveurs, ce que nous appelons le trafic Est–Ouest. En résultat, les data centers géants et le cloud tendent vers un modèle à deux niveaux qui ne comporte plus de couche intermédiaire et qui est mieux adapté à une combinaison de trafic Nord-Sud et Est-Ouest. Cette compression de la hiérarchie de trois à deux niveaux pourrait améliorer significativement la vitesse et le rendement.
Aujourd’hui, la demande de bande passante dépasse l’innovation technologique. Le débit et la densité doivent augmenter, mais la consommation d’alimentation et le coût doivent diminuer. Dans le passé, l’IEEE a souvent été en mesure de réutiliser une technologie de télécommunications, mais cela n’est plus possible aujourd’hui. Nous devons travailler les uns avec les autres et trouver des moyens pour répondre aux demandes de bande passante actuelles et futures. Toutefois, personne ne veut que les data centers prennent le risque normalement associé à l’adoption d’une technologie avancée, totalement nouvelle et non testée.
La solution à court terme actuellement adoptée consiste fondamentalement à étendre la connectivité parallèle. En utilisant quatre voies à 10G par voie, nous pouvons obtenir 40 G. Quatre voies 25 G nous permettent d’atteindre 100G et 16 de ces voies nous amènent à 400G. Cette approche a toutefois ses limites. Nous attendons un véritable progrès dans la technologie optique, qui nous permettra de supporter des exigences accrues. Nous avons besoin d’améliorations progressives dans les technologies optiques, pour accroître les débits d’équipements laser à longueur d’onde unique et multiple. Ceux-ci doivent être traduits sur des systèmes de photonique sur silicium ou d’optique intégrée qui peuvent évoluer sur des fonds de panier optique et cartes de circuit imprimé. Les puces requises peuvent être fabriquées mais cette technologie n’est pas encore prête à la fabrication en grande série et à bas coût.
Alors combien de temps allons-nous devoir encore attendre ? Je compte sur vous pour ne pas me citer là-dessus, mais j’évalue cette attente à plus d’une année… et à moins de dix ans. Je pense que cette nouvelle technologie sera directement déployée dans les data centers, non seulement dans les cartes mères de serveurs, mais également dans les bus systèmes et les interconnexions entre boîtiers.
Trouver le juste équilibre entre débit, coût, puissance et taille
En tant qu’ingénieurs, nous nous efforçons de trouver le juste équilibre entre coût et taille d’un côté, et débit et densité de l’autre. Le résultat est souvent affaire de compromis -privilégier un critère se fait au détriment d’un autre. Au final, des concessions s’imposent souvent sur les quatre éléments.
La solution consiste à intégrer toutes ces caractéristiques sur un même commutateur. Tout est question de densité des façades de commutateurs, physique … et bande passante. Une grande vigilance s’impose, toutefois. Nous pouvons combiner différentes formes de modules d’émetteur-récepteur sur une seule façade de commutateur. Quatre ports CFP à 100G par port représentent 400 Gb/s. 48 ports SFP+ à 10G par port produisent une capacité totale de 480 Gb/s. 44 ports QSFP à 40G par port fournissent 1 760 Gb/s. Un commutateur CFP4 qui sera bientôt disponible peut offrir 32 ports 100 G sur une même façade de commutateur, ce qui donne 3200 Gb/s
Infrastructure de câblage des centres de données
Parmi les différentes méthodes pour connecter les armoires, nous avons tendance à utiliser les solutions les moins coûteuses, avec la plus grande efficacité énergétique et faciles à utiliser. À l’intérieur des armoires, on utilise essentiellement du cuivre. Les câbles cuivre Twinax sont idéaux pour de courtes distances et une bande passante jusqu’à 100 Gb/s. La fin de cette technologie est toutefois en vue.
Nous utilisons généralement des paires torsadées ou fibres optiques entre les armoires. Des milliards de ces liens sont déployés dans le monde mais leur portée présente un inconvénient, car l’augmentation des débits a limité leur portée de 100 mètres à 30 seulement, ce qui reste suffisant pour l’architecture end-of-row. Le multimode sort également perdant car à chaque fois que la demande de débit augmente, la longueur diminue. La fibre monomode est une alternative possible mais beaucoup plus onéreuse aujourd’hui.
On peut donc résumer la situation ainsi : il existe cinq critères que nous voulons garder au plus haut niveau possible : débit, densité, résilience (disponibilité), durée de vie et parallélisme. Cependant, il existe également quatre critères que nous voulons garder au plus bas possible : dépenses CapEx, OpEx, consommation d’énergie et latence. Il ne faut jamais sous-estimer le débit requis, tout particulièrement lors de la prescription de centres de données.
Haute densité, taille réduite et robustesse sont également des critères essentiels pour la longévité du centre de données. Une latence basse est également indispensable pour garantir des retards les plus faibles possible entre points d’interconnexion.
L’année dernière, j’ai consacré une étude sur les attentes des grands centres de données. Lors de longues discussions avec Microsoft, ils m’ont expliqué qu’ils déployaient des fibres monomode parallèle le plus loin possible, avec les liens courts en cuivre. Capex élevé, Opex bas et durée de vie maximale. Voilà, à mes yeux, la voie la plus intelligente à suivre.
Alan Flatman, Principal Consultant, LAN Technologies, Nexans