OceanStor AI Storage
Eine solide Basis für KI – für mehr Intelligenz für Ihr Unternehmen!
Produkte, Lösungen und Services für Unternehmen
Smartphones, PCs & Tablets, Wearables, mobiles Breitband und mehr
Über Huawei, Nachrichten, Veranstaltungen, Brancheneinblicke und mehr
Übersicht
Entwickelt für KI
Unternehmen sehen sich im KI-Zeitalter zunehmend Herausforderungen in den Bereichen Model Training und Inferenz gegenübergestellt - von unzureichender Nutzung der Rechenleistung, niedriger Inferenz-Reaktion und KI-Halluzinationen bis hin zur Unfähigkeit, lange Sequenzen zu verarbeiten und hohe Inferenzkosten zu stemmen.
Was ist die Antwort darauf? Unsere Lösung: OceanStor Next-Gen High-Performance Distributed File Storage for AI - eine einheitliche Storage-Lösung für E2E-KI-Training und den Inferenz-Datenprozess. Damit können Unternehmen Datensilos überwinden, verschiedene Corpus-Daten zusammenführen, die KI-Cluster-Rechenleistungsnutzung sowie das Inferenz-Erlebnis verbessern.
Im weltweit anerkannten MLPERF™ Benchmark-Test nahm OceanStor A800 den ersten Platz im Bereich Leistung ein - achtmal schnelleres Laden des Training-Sets und eine viermal schnellere Wiederaufnahme des Trainings von Checkpoints aus als die führende Alternative.
Sechs Innovationen
Huawei definiert Distributed File Storage neu, als Reaktion auf die Anforderungen beim Training für großen KI-Modelle und Inferenz. Dabei stehen sechs wichtige Innovationen bei der Erstellung von Speichersystemen für KI im Vordergrund.
Extreme Leistung
Huawei definiert Distributed File Storage neu, als Reaktion auf die Anforderungen beim Training für großen KI-Modelle und Inferenz. Dabei stehen sechs wichtige Innovationen bei der Erstellung von Speichersystemen für KI im Vordergrund.
Neues Daten-Paradigma
Führende KI-Daten-Paradigmen, einschließlich Tensoren, Vektoren und Key-Value Cache, werden unterstützt. Die RAG-Technologie (Retrieval-Augmented Generation) reduziert die KI-Halluzinationen. Multi-Level KV Cache reduziert den Time-To-First-Token (TTFT) und verbessert gleichzeitig die Inferenz-Effizienz.
Data Fabric
Storage-Metadaten-Management und -Abruf helfen, eine globale Daten-Transparenz und Verwaltbarkeit zu erreichen, sowie eine um das Zehnfache effizientere Datenmobilität.
Skalierbarkeit
Scale-Out einer eines einzelnen Storage Clusters auf Exabyte-Level wird unterstützt, jedes Controller-Gehäuse kann mit GPUs (Graphics Processing Units), DPUs (Data Processing Units) oder NPUs (Neural Processing Units) für Near-Storage-Computing erweitert werden.
Daten-Resilienz
Mit innovativer Architektur und Technologie wird eine Zuverlässigkeit von 99,9999 % erreicht. Eine integrierte Ransomware-Erkennung bietet eine Erkennungsgenauigkeit von 99,99 %.
Nachhaltigkeit
Innovation in den Bereichen Speichermeiden und System-Hardware verbessern die Energie-Effizienz und die Kapazitätsdichte enorm.
Produkt
Bei diesem Speichersystem wird eine „Data Control Plane Separation“-Architektur und langfristige Speicherung eingesetzt. So werden die E2E-Datenverarbeitungs-Anforderungen für das KI-Training und Inferenz in verschiedenen Industriebereichen erfüllt.
Ressourcen
Das könnte Sie interessieren
Was ist Storage für KI?
Storage für KI ist die Datenspeicher-Infrastruktur, die für KI- und ML-Workloads. Diese Infrastruktur muss die Anforderungen an hohe Leistung und Skalierbarkeit in hybriden Workload-Umgebungen erfüllen, die großen Datenmengen, die für den KI-Prozess erforderlich sind, effizient zu verwalten und sicherstellen, dass Daten schnell gelesen, geschrieben und verarbeitet werden. Speichersysteme für KI unterstützen Training-Clusters, die Effizienz der Datenaufnahme und Vorverarbeitung zu verbessern, wobei die Nutzung der Rechen-Cluster erhöht wird. Sie verbessern ebenfalls die Kosteneffizienz und Genauigkeit von Inferenzanwendungen.