Search

Was sind hyperkonvergente Netzwerke?

2021-10-18
119
0

Pit’s IT Architecture Talk

#18 Was sind hyperkonvergente Netzwerke?

Hinweis: Die in diesem Artikel zum Ausdruck gebrachten Ansichten und Meinungen sind die des Autors und spiegeln nicht notwendigerweise die offizielle Politik, Position, Produkte und Technologien der Huawei Deutschland GmbH wieder. Wenn Sie mehr über die Produkte und Technologien der Huawei Technologies Deutschland GmbH erfahren möchten, besuchen Sie bitte unsere Produktseiten oder kontaktieren Sie uns.


Neben hyperkonvergenten Infrastrukturen bzw. englisch hyper-converged Infrastructures (HCI) sind auch hyperkonvergente Netzwerke verfügbar. Der Schwerpunkt von beiden Systemen liegt in einem effizienten Betrieb und einfacher Skalierung.

HCI ist im Rechenzentrum schon länger bekannt. Dabei werden vernetzte Server-Systeme mit Software für Compute-, Netzwerk- und Storage-Virtualisierung versehen. Dafür können Standart-Server mit einem entsprechenden Software-Stack versehen oder vorkonfigurierte Appliances eingesetzt werden. Die größten Vorteile sind die einfache Skalierung und die einheitliche Bedienung. Mehr zu diesem Thema findet Ihr unter „Agile Architekturen mit Hyper-converged“.

Was sind hyperkonvergente Netzwerke?

Hyperkonvergente Netzwerke, bzw. hyper-converged Networks, sind der einheitliche softwarebasierte Betrieb aller Rechenzentrums-Netzwerke. Diese umfassen das herkömmliche Service-Netzwerk plus das Storage-Netzwerk und das High-Performance-Netzwerk. Die Notwendigkeit für diese Architektur ergibt sich aus 2 Gründen.

Abbildung 1: CloudEngine 16800 mit bis zu 576 x 400 Gb-Ports

Erstens hat sich die allgemein verfügbare Ethernet-basierte Technologie weiterentwickelt. Heute stehen uns Bandbreiten bis zu 400Gb zur Verfügung und 800Gb klopft schon an die Tür. Zusätzlich sind verlustfreie (lossless) RDMA-Standards, wie z.B. RoCE, den Kinderschuhen entwachsen und werden breitflächig eingesetzt.

Abbildung 2: Huawei's Next-Gen NoF+ Wins Interop Tokyo 2021 Best of Show Award

Der zweite Grund kommt aus dem Storage-Bereich. Dort werden zunehmend NVMe- und SCM-Laufwerke eingesetzt. Damit die Performanz dieser Speicher auch bei der CPU ankommt, sind neue Netzwerke notwendig. Das herkömmliche SAN hinkt nicht nur der Ethernet-Geschwindigkeit hinterher – zurzeit 64Gb zu 400Gb, sondern hat auch Nachteile beim Protokoll-Overhead. SAN-Typisch sind für jeden IO zwei Durchgänge notwendig. Zuerst meldet der Client sich beim Storage und teilt mit, dass er lesen oder schreiben möchte. Danach kann er die entsprechenden Daten senden oder empfangen. Bei NVMe over Fabric (NoF), also der Ethernet-basierten Variante ist dafür nur ein Befehl notwendig. Man spart sich also jeweils einen Round-trip. Wer möchte, kann dazu auch einen meiner bereits veröffentlichen Artikel „Storage-Netzwerke im Umbruch! Wie wählt man die richtige Lösung?“ lesen. Gerne führen wir dies auch in unserem Lab vor.

Genauso wie bei modernem Storage sind die Latenzen und Bandbreiten auch beim High-Performance-Computing (HPC) relevant. Bisher wurden dafür hauptsächlich InfiniBand (IB) und Omni-Path (OPA) eingesetzt. Auch hier geht der Trend zu Ethernet-Netzwerken. Diese bieten ähnliche Latenzen und Bandbreiten und sind dazu noch viel skalierbarer.

Wie kann man solche Netzwerke betreiben?

Normale Rechenzentrums-Netzwerke oder Data Center Networks (DCN) sind heute schon ziemlich komplex. Hier reden wir jetzt schon von tausenden Ports, dutzenden Switchen und komplexen Geräten wie Routern, Firewalls und Load-Balancern. Dazu kommt noch, dass es nicht nur ein Netzwerk ist, sondern aus vielen verschiedenen besteht, wie Management-, Backup-, Hartbeat-, Service-Netzwerk, etc. und diese dazu noch unterteilt sind mit VLANs oder Overlays. Erstaunlich finde ich, dass die meisten Netzwerk-Administratoren, dies über die Kommandozeile steuern können. Aber dazu später mehr.

Abbildung 3: Ethernet für HPC

Unsere CloudFabric 3.0!

Unsere Lösung dafür heißt CloudFabric 3.0. Sie bildet genau oben beschriebene Anforderungen an ein hyperkonvergentes Netzwerk ab. Das sind verlustfreies Ethernet-Netzwerk, nicht nur für Storage und HPC, automatisiertes durchgängiges Lifecycle-Management und KI- bzw. regelbasierte Betriebs- und Wartungsprozesse.

Das Ganze steht natürlich über APIs zur Verfügung und ermöglicht so die Integration in eine vollständig automatisierte Service-Provisionierung. 

  


Abbildung 4: iMaster NCE-Fabric/ Abbildung 5: iMaster NCE-FabricInsight

Drei Highlights möchte ich zum Schluss noch erwähnen. Die üblichen Server-Virtualisierungen und Container Runtimes sind eingebunden. Dazu können Public-Cloud-Netzwerke direkt integriert werden. Dies erfolgt mit übersichtlichen grafischen Oberflächen. An unsere Netzwerk-Admins haben wir auch gedacht. Sie dürfen auch weiterhin über die Konsolen administrieren.

Bis bald!

Pit

TOP