Wenn Sie Hilfe benötigen, klicken Sie hier:
MENÜ

Kevin Tolly

Gründer der Tolly Group

Kevin Tolly

Gründer der Tolly Group

Huawei AI-Fabric bestand den Test von Tolly und liefert branchenführende Leistung

Huawei beauftragte Tolly mit der Evaluierung der Leistung seiner AI Fabric-Lösung in drei Anwendungsszenarien: High-Performance Computing (HPC), verteiltes KI-Training und verteilte Speicherung. Daraufhin wurden die Ergebnisse mit der Leistung der Nexus-Switches von Cisco verglichen. Sowohl Huawei AI Fabric als auch die Lösung von Cisco basieren auf RDMA over Converged Ethernet (RoCEv2). In allen drei Szenarien übertraf die Leistung von Huawei AI Fabric die der Cisco Nexus-Switches.

Huawei AI Fabric-Lösung ist führend in drei Szenarien

  • High-Performance Computing

    Die AI Fabric-Lösung von Huawei benötigt 29,8 % weniger Zeit bis zur Fertigstellung von Jobs als die Lösung von Cisco.

    In Szenarien wie Biowissenschaften und Meteorologie wird die Effizienz bei der Job-Fertigstellung verbessert und die Job-Fertigstellungszeit verkürzt.

    AI Fabric
    Cisco
    29.8%

    Effizienz bei der
    Job-Fertigstellung

    Testdetails anzeigen
  • Verteiltes KI-Training

    Das KI-Training ist mit der AI Fabric-Lösung von Huawei um 27,5 % effizienter als mit der Lösung von Cisco.

    In Szenarien wie Spracherkennung und autonomes Fahren kann die verbesserte Recheneffizienz die Investitionen in teure GPU-Server reduzieren.

    AI Fabric
    Cisco
    27.5%

    KI
    Trainingseffizienz

    Testdetails anzeigen
  • Verteilte Speicherung

    Die Speicherleistung der AI Fabric-Lösung von Huawei ist um 30,5 % besser als die der Cisco Lösung.

    Die Leistung der Speicher-IOPS (Input/Output Operations per Second) wird in Public Cloud-Szenarien verbessert, was die Einnahmen bei Cloud-Festplatten erhöht.

    AI Fabric
    Cisco
    30.5%

    Input/Output Operations
    per Second

    Testdetails anzeigen

Detaillierte Testdaten für das HPC-Szenario

Testergebnisse für HPC-Szenario, gemessen mit Intel MPI Benchmarks (IMB) (MPI_Allreduce)

Detaillierte Testdaten für das Szenario verteiltes KI-Training

Testergebnisse für GPU-verteiltes KI-Training (Parameter-Server-Architektur), gemessen mit TensorFlow-Modell

Detaillierte Testdaten für das Szenario verteilte Speicherung

Testergebnisse für verteilte Speicherung, gemessen mit FIO-Tool