OceanStor AI Storage
Eine solide Basis für KI – für mehr Intelligenz für Ihr Unternehmen!
Produkte, Lösungen und Services für Unternehmen
Smartphones, PCs & Tablets, Wearables, mobiles Breitband und mehr
Über Huawei, Nachrichten, Veranstaltungen, Brancheneinblicke und mehr
Entwickelt für KI
Unternehmen sehen sich im KI-Zeitalter zunehmend Herausforderungen in den Bereichen Model Training und Inferenz gegenübergestellt - von unzureichender Nutzung der Rechenleistung, niedriger Inferenz-Reaktion und KI-Halluzinationen bis hin zur Unfähigkeit, lange Sequenzen zu verarbeiten und hohe Inferenzkosten zu stemmen.
Was ist die Antwort darauf? Unsere Lösung: OceanStor Next-Gen High-Performance Distributed File Storage for AI - eine einheitliche Storage-Lösung für E2E-KI-Training und den Inferenz-Datenprozess. Damit können Unternehmen Datensilos überwinden, verschiedene Corpus-Daten zusammenführen, die KI-Cluster-Rechenleistungsnutzung sowie das Inferenz-Erlebnis verbessern.
Im weltweit anerkannten MLPERF™ Benchmark-Test nahm OceanStor A800 den ersten Platz im Bereich Leistung ein - achtmal schnelleres Laden des Training-Sets und eine viermal schnellere Wiederaufnahme des Trainings von Checkpoints aus als die führende Alternative.
Sechs Innovationen
Huawei definiert Distributed File Storage neu, als Reaktion auf die Anforderungen beim Training für großen KI-Modelle und Inferenz. Dabei stehen sechs wichtige Innovationen bei der Erstellung von Speichersystemen für KI im Vordergrund.
Extreme Leistung
Huawei definiert Distributed File Storage neu, als Reaktion auf die Anforderungen beim Training für großen KI-Modelle und Inferenz. Dabei stehen sechs wichtige Innovationen bei der Erstellung von Speichersystemen für KI im Vordergrund.
Neues Daten-Paradigma
Führende KI-Daten-Paradigmen, einschließlich Tensoren, Vektoren und Key-Value Cache, werden unterstützt. Die RAG-Technologie (Retrieval-Augmented Generation) reduziert die KI-Halluzinationen. Multi-Level KV Cache reduziert den Time-To-First-Token (TTFT) und verbessert gleichzeitig die Inferenz-Effizienz.
Data Fabric
Storage-Metadaten-Management und -Abruf helfen, eine globale Daten-Transparenz und Verwaltbarkeit zu erreichen, sowie eine um das Zehnfache effizientere Datenmobilität.
Skalierbarkeit
Scale-Out einer eines einzelnen Storage Clusters auf Exabyte-Level wird unterstützt, jedes Controller-Gehäuse kann mit GPUs (Graphics Processing Units), DPUs (Data Processing Units) oder NPUs (Neural Processing Units) für Near-Storage-Computing erweitert werden.
Daten-Resilienz
Mit innovativer Architektur und Technologie wird eine Zuverlässigkeit von 99,9999 % erreicht. Eine integrierte Ransomware-Erkennung bietet eine Erkennungsgenauigkeit von 99,99 %.
Nachhaltigkeit
Innovation in den Bereichen Speichermeiden und System-Hardware verbessern die Energie-Effizienz und die Kapazitätsdichte enorm.
Das richtige Produkt für Ihr Unternehmen
Bei diesem Speichersystem wird eine „Data Control Plane Separation“-Architektur und langfristige Speicherung eingesetzt. So werden die E2E-Datenverarbeitungs-Anforderungen für das KI-Training und Inferenz in verschiedenen Industriebereichen erfüllt.
OceanStor A600 provides extreme performance density, accelerates inference, and fulfills the E2E data processing needs for AI training and inference. As such, it can be widely used in industry-specific scenarios such as financial investment and research, legal documents, medical record review, and drug R&D.
Six Innovations
In response to the demands of large AI model training and inference, Huawei redefines distributed file storage, focusing on six key innovations to create storage systems purpose-built for AI.
Ultra Performance
Storage performance is improved 10-fold compared to conventional storage, with bandwidth in hundreds of TB/s and 100 million-level input/output operations per second (IOPS), speeding up the entire Generative AI (GenAI) process.
New Data Paradigm
Cutting-edge AI data paradigms are supported, including tensors, vectors, and Key-Value (KV) cache. Retrieval-Augmented Generation (RAG) technology reduces AI hallucinations. Multi-level KV cache reduces the Time-To-First-Token (TTFT) while improving inference efficiency.
Data Fabric
Storage metadata management and retrieval help achieve global data visibility and manageability, as well as data mobility that is 10 times more efficient.
Scalability
Exabyte-level scale-out of a single storage cluster is supported, with each controller enclosure scaling up with Graphics Processing Units (GPUs), Data Processing Units (DPUs), or Neural Processing Units (NPUs) for near-storage computing.
Data Resilience
Innovative architecture and technology achieve 99.9999% reliability. A built-in ransomware detection engine delivers 99.99% detection accuracy.
Sustainability
Storage media application and system hardware innovation significantly improve storage energy efficiency and capacity density.
Ressourcen
Das könnte Sie interessieren
Was ist Storage für KI?
Storage für KI ist die Datenspeicher-Infrastruktur, die für KI- und ML-Workloads. Diese Infrastruktur muss die Anforderungen an hohe Leistung und Skalierbarkeit in hybriden Workload-Umgebungen erfüllen, die großen Datenmengen, die für den KI-Prozess erforderlich sind, effizient zu verwalten und sicherstellen, dass Daten schnell gelesen, geschrieben und verarbeitet werden. Speichersysteme für KI unterstützen Training-Clusters, die Effizienz der Datenaufnahme und Vorverarbeitung zu verbessern, wobei die Nutzung der Rechen-Cluster erhöht wird. Sie verbessern ebenfalls die Kosteneffizienz und Genauigkeit von Inferenzanwendungen.