Suche

Was ist eigentlich aus Intent-driven Networking geworden? Und so managen wir bei Huawei unsere Datencenter-Netzwerke.

2021-07-12
447
0

Pit’s IT Architecture Talk

#11 Was ist eigentlich aus Intent-driven Networking geworden? Und so managen wir bei Huawei unsere Datencenter-Netzwerke.

Hinweis: Die in diesem Artikel zum Ausdruck gebrachten Ansichten und Meinungen sind die des Autors und spiegeln nicht notwendigerweise die offizielle Politik, Position, Produkte und Technologien der Huawei Deutschland GmbH wider. Wenn Sie mehr über die Produkte und Technologien der Huawei Deutschland GmbH erfahren möchten, besuchen Sie bitte unsere Produktseiten oder kontaktieren Sie uns.


Intent-driven oder Intent-based Networking tauchte vor ca. 5 Jahren in der Netzwerk-Scene auf. Im Hype-Cycle scheinen wir gerade bei der Desillusionierung zu sein, obwohl die technische Entwicklung, zumindest bei Huawei, riesige Fortschritte gemacht hat.

Was ist eigentlich Intent-driven? Wenn man es wörtlich übersetzt, hört es sich eher lustig an – Absichts-unterstützt/getrieben – das hoffe ich für alle Infrastrukturkomponenten. Spaß beiseite, wenn man sich das im Internet anschaut, kommt man zu vielen Definitionen. Der Konsens ist für mich, dass man oder ein Softwaresystem ein Ziel formuliert, z.B. „Provisioniere für den Service X eine VPC mit externem Internetzugang!“ und das System die notwendigen Konfigurationen durchführt, um das Netzwerk sicher und entsprechend Best Practices bereitzustellen. Heute sind wir allerdings einen Schritt weiter und können autonom gesteuerte Netzwerke – Autonomous Driving Networks (ADN) – zur Verfügung stellen. Intent-driven ist dabei ein wichtiger Teilaspekt, dazu kommen noch andere Bereiche, wie automatische Fehlererkennung und –beseitigung, dynamische Optimierung, Modellierungstools u.s.w. Wer ein Beispiel für Hyperautomation lt. Gartner Top Strategic Technology Trends for 2021 sucht, wird bei unserem ADN fündig.

Wofür benötigt man das? Wie in allen Bereichen, bietet Automatisierung zwei wesentliche Vorteile. Erstens steigert sie die Qualität und zweitens senkt sie die TCO. Netzwerke sind heute viel dynamischer als noch vor einigen Jahren. Ständig werden neue Services bereitgestellt oder grundlegende Architekturen ändern sich. Dazu kommt noch das exponentielle Datenwachstum – 2019 wurden ca. 40 ZB erzeugt und je nach Quelle sollen es 2025 180 bis 300 ZB sein. Und all das muss mehrfach durch die Leitungen. Das manuelle Konfigurieren von Netzwerkkomponenten ist damit viel zu fehleranfällig und zu langsam.

Und jetzt kommen wir zu unserem ADN. Dieses besteht aus 3 Teilen, einem Cloud-basierten Trainingssystem, einem Management- und Control-System und unserer Netzwerkinfrastruktur. Damit automatisieren wir die Planung, die Bereitstellung, die Instandhaltung und die Optimierung über den gesamten Lebenszyklus. Das hört sich alles noch sehr normal an, ändert sich aber, wenn man hinter die Kulissen schaut.

Bild 1: Einsatz von KI in autonomen Netzwerken

Fangen wir mit der Netzwerkinfrastruktur an. Wie sollte es anders sein, verwenden wir natürlich künstliche Intelligenz (KI) in unseren CloudEngine-Switches. Brandneu sind z.B. unsere Rechenzentrums-Switches CloudEngine 16800 mit einer Weiterleitungsleistung von bis zu 45.120 Mpps – was für eine riesige Zahl. Damit steht der 400 GE – Ära nichts mehr im Weg. Was machen nun die KI – Prozessoren in dem Switch? Sie sorgen u.a. dafür, dass wir lossless Ethernet erreichen. Wie Ihr sicher wisst, ist TCP ein sehr tolerantes Protokoll. Wenn Pakete unterwegs verloren gehen, werden sie einfach vom Empfänger neu angefordert. Das kostet natürlich viel Zeit und belastet die beteiligten Netzwerkkomponenten zusätzlich. Bei uns sorgt die KI-Technology dafür, dass die Puffer in unseren Switches dynamisch angepasst werden. In jeder Lastsituation werden die richtigen Werte vorausgesagt. Dazu nutzen wir unser cloud-basiertes Trainingssystem iMaster NAIE. So können alle Switches voneinander lernen und erhalten immer das optimalste Modell. Neben dem verlustfreien Ethernet sorgt die KI auch dafür, dass alle Services überwacht und ggf. Konfigurations¬änderungen vorgenommen werden, damit wir einen stabilen Service-Level erreichen.

Bild 2: Management- und Control-System iMaster NCE

Kommen wir jetzt zum Management- und Control-System – unserem iMaster NCE. Er ist das Onsite-Herzstück unserer autonomen Netzwerklösung. Auch er nutzt wieder den iMaster NAIE um auf KI-gestütztes Know-how zuzugreifen und optimal zu reagieren. Als Basis dient dem iMaster NCE ein digitaler Zwilling der Netzwerkinfrastruktur. Dadurch kann er schon in der Planungsphase die Anforderungen abbilden, diese anschließend vor dem Commit validieren und stellt sogar einen Weg zurück zur Verfügung. Das ist richtiges Intend-based Networking. Neue Komponenten, wie z.B. Switches, kann der iMaster NCE vollautomatisch integrieren. Im laufenden Betrieb überwacht er den Zustand der Netzwerkinfrastruktur und kann nicht nur Fehler erkennen, sondern diese auch gleich beheben. Wer schon mal Fehler in einem komplexen Netzwerk manuell analysiert hat, der weiß, dass dies Stunden erfordert. Unser ADN schafft das in Minuten und behebt diese Fehler auch gleich. Und vorausschauende Instandhaltung betreiben wir damit auch. Gealterte oder fehlerhafte Komponenten können vorausschauend identifiziert und vorbeugend ausgetauscht werden. Am Ende erreichen wir damit ein autonomes Netzwerk, welches die höchsten Service-Anforderungen erfüllt.

Wer noch mehr Interesse an diesem Thema hat, dem empfehle ich unser Huawei Autonomous Driving Data Center Network Solution White Paper.

Wie wir sehen, sind Intent-driven oder Intent-based Networks nicht verschwunden, sondern in der nächsten Generation der Autonomous Driving Networks aufgegangen – zumindest bei Huawei.

Bis bald!

Pit

TOP