Produkte, Lösungen und Services für Unternehmen
Smartphones, PCs & Tablets, Wearables, mobiles Breitband und mehr
Über Huawei, Nachrichten, Veranstaltungen, Brancheneinblicke und mehr
Pit’s IT Architecture Talk
Hinweis: Die in diesem Artikel zum Ausdruck gebrachten Ansichten und Meinungen sind die des Autors und spiegeln nicht notwendigerweise die offizielle Politik, Position, Produkte und Technologien der Huawei Deutschland GmbH wieder. Wenn Sie mehr über die Produkte und Technologien der Huawei Technologies Deutschland GmbH erfahren möchten, besuchen Sie bitte unsere Produktseiten oder kontaktieren Sie uns.
Neben hyperkonvergenten Infrastrukturen bzw. englisch hyper-converged Infrastructures (HCI) sind auch hyperkonvergente Netzwerke verfügbar. Der Schwerpunkt von beiden Systemen liegt in einem effizienten Betrieb und einfacher Skalierung.
HCI ist im Rechenzentrum schon länger bekannt. Dabei werden vernetzte Server-Systeme mit Software für Compute-, Netzwerk- und Storage-Virtualisierung versehen. Dafür können Standart-Server mit einem entsprechenden Software-Stack versehen oder vorkonfigurierte Appliances eingesetzt werden. Die größten Vorteile sind die einfache Skalierung und die einheitliche Bedienung. Mehr zu diesem Thema findet Ihr unter „Agile Architekturen mit Hyper-converged“.
Was sind hyperkonvergente Netzwerke?
Hyperkonvergente Netzwerke, bzw. hyper-converged Networks, sind der einheitliche softwarebasierte Betrieb aller Rechenzentrums-Netzwerke. Diese umfassen das herkömmliche Service-Netzwerk plus das Storage-Netzwerk und das High-Performance-Netzwerk. Die Notwendigkeit für diese Architektur ergibt sich aus 2 Gründen.
Abbildung 1: CloudEngine 16800 mit bis zu 576 x 400 Gb-Ports
Erstens hat sich die allgemein verfügbare Ethernet-basierte Technologie weiterentwickelt. Heute stehen uns Bandbreiten bis zu 400Gb zur Verfügung und 800Gb klopft schon an die Tür. Zusätzlich sind verlustfreie (lossless) RDMA-Standards, wie z.B. RoCE, den Kinderschuhen entwachsen und werden breitflächig eingesetzt.
Abbildung 2: Huawei's Next-Gen NoF+ Wins Interop Tokyo 2021 Best of Show Award
Der zweite Grund kommt aus dem Storage-Bereich. Dort werden zunehmend NVMe- und SCM-Laufwerke eingesetzt. Damit die Performanz dieser Speicher auch bei der CPU ankommt, sind neue Netzwerke notwendig. Das herkömmliche SAN hinkt nicht nur der Ethernet-Geschwindigkeit hinterher – zurzeit 64Gb zu 400Gb, sondern hat auch Nachteile beim Protokoll-Overhead. SAN-Typisch sind für jeden IO zwei Durchgänge notwendig. Zuerst meldet der Client sich beim Storage und teilt mit, dass er lesen oder schreiben möchte. Danach kann er die entsprechenden Daten senden oder empfangen. Bei NVMe over Fabric (NoF), also der Ethernet-basierten Variante ist dafür nur ein Befehl notwendig. Man spart sich also jeweils einen Round-trip. Wer möchte, kann dazu auch einen meiner bereits veröffentlichen Artikel „Storage-Netzwerke im Umbruch! Wie wählt man die richtige Lösung?“ lesen. Gerne führen wir dies auch in unserem Lab vor.
Genauso wie bei modernem Storage sind die Latenzen und Bandbreiten auch beim High-Performance-Computing (HPC) relevant. Bisher wurden dafür hauptsächlich InfiniBand (IB) und Omni-Path (OPA) eingesetzt. Auch hier geht der Trend zu Ethernet-Netzwerken. Diese bieten ähnliche Latenzen und Bandbreiten und sind dazu noch viel skalierbarer.
Wie kann man solche Netzwerke betreiben?
Normale Rechenzentrums-Netzwerke oder Data Center Networks (DCN) sind heute schon ziemlich komplex. Hier reden wir jetzt schon von tausenden Ports, dutzenden Switchen und komplexen Geräten wie Routern, Firewalls und Load-Balancern. Dazu kommt noch, dass es nicht nur ein Netzwerk ist, sondern aus vielen verschiedenen besteht, wie Management-, Backup-, Hartbeat-, Service-Netzwerk, etc. und diese dazu noch unterteilt sind mit VLANs oder Overlays. Erstaunlich finde ich, dass die meisten Netzwerk-Administratoren, dies über die Kommandozeile steuern können. Aber dazu später mehr.
Abbildung 3: Ethernet für HPC
Unsere CloudFabric 3.0!
Unsere Lösung dafür heißt CloudFabric 3.0. Sie bildet genau oben beschriebene Anforderungen an ein hyperkonvergentes Netzwerk ab. Das sind verlustfreies Ethernet-Netzwerk, nicht nur für Storage und HPC, automatisiertes durchgängiges Lifecycle-Management und KI- bzw. regelbasierte Betriebs- und Wartungsprozesse.
Das Ganze steht natürlich über APIs zur Verfügung und ermöglicht so die Integration in eine vollständig automatisierte Service-Provisionierung.
Abbildung 4: iMaster NCE-Fabric/ Abbildung 5: iMaster NCE-FabricInsight
Drei Highlights möchte ich zum Schluss noch erwähnen. Die üblichen Server-Virtualisierungen und Container Runtimes sind eingebunden. Dazu können Public-Cloud-Netzwerke direkt integriert werden. Dies erfolgt mit übersichtlichen grafischen Oberflächen. An unsere Netzwerk-Admins haben wir auch gedacht. Sie dürfen auch weiterhin über die Konsolen administrieren.
Bis bald!
Pit
Reduzierung der Storage TCO mit der Data Management Engine 2.0
Fibre Channel, InfiniBand und Ethernet – Wer gewinnt?
Verteilte Dateisysteme der Zukunft
Erasure Code - das bessere RAID
Flexibler Scale-out Storage der Exabyte-Klasse – Huawei OceanStor Pacific
Immer einen Schritt voraus: Brandneue Data Protection-Lösung!
Wem graut es vor der nächsten Datenmigration? Das muss nicht sein!
OceanStor Dorado V6 – Active-Active NAS der nächsten Generation
Raspies mit Containern und Kubernetes zum Glühen bringen!
Raspies mit Containern und Kubernetes zum Glühen bringen!
Was ist eine Storage-Cloud und welche Vorteile bietet sie für Unternehmen?
Storage-Netzwerke im Umbruch! Wie wählt man die richtige Lösung?
Das CIO – Handwerkszeug zur erfolgreichen digitalen Transformation
Warp-Storage – damit sich die CPU nicht langweilt
Agile Architekturen mit Hyper-converged