OceanStor AI Storage
Costruisci una solida base di dati per l'IA, mettendo l'intelligenza a portata di mano.
Prodotti, soluzioni e servizi per le aziende
Progettato per l'intelligenza artificiale
Man mano che i modelli di IA di grandi dimensioni entrano nell'era multimodale, le aziende si trovano ad affrontare sfide nell'addestramento e nell'inferenza dei modelli, dal basso utilizzo della potenza di calcolo per l'addestramento, alla lentezza della risposta all'inferenza e alle allucinazioni, fino all'incapacità di gestire sequenze lunghe e agli alti costi di inferenza.
E la risposta? Huawei OceanStor Next-Gen High-Performance Distributed File Storage for AI fornisce una soluzione di archiviazione unificata per il processo end-to-end (E2E) di formazione e inferenza dei dati di AI. Aiuta le aziende a superare i silos di dati, ad aggregare diversi corpus di dati, a migliorare l'utilizzo della potenza di calcolo dei cluster AI e a migliorare l'esperienza di inferenza.
Nel test di benchmark MLPERF™, riconosciuto a livello mondiale, OceanStor A800 si è classificato al primo posto per le prestazioni, con un caricamento del set di training 8 volte più veloce e una ripresa del training dai checkpoint 4 volte più veloce rispetto all'alternativa principale.
Sei innovazioni
In risposta alle esigenze di formazione e inferenza di modelli AI di grandi dimensioni, Huawei ridefinisce lo storage di file distribuito, concentrandosi su sei innovazioni chiave per creare sistemi di storage appositamente costruiti per l'AI.
Prestazioni ultra
Le prestazioni di archiviazione sono migliorate di 10 volte rispetto allo storage convenzionale, con una larghezza di banda di centinaia di TB/s e 100 milioni di operazioni di input/output al secondo (IOPS), accelerando l'intero processo di IA generativa (GenAI).
Nuovo paradigma dei dati
Sono supportati paradigmi di dati AI all'avanguardia, tra cui tensori, vettori e cache Key-Value (KV). La tecnologia RAG (Retrieval-Augmented Generation) riduce le allucinazioni dell'intelligenza artificiale. La cache KV multilivello riduce il Time-To-First-Token (TTFT) e migliora l'efficienza dell'inferenza.
Tessuto di dati
La gestione e il recupero dei metadati di storage consentono di ottenere visibilità e gestibilità dei dati a livello globale, nonché una mobilità dei dati 10 volte più efficiente.
Scalabilità
È supportato lo scale-out a livello di exabyte di un singolo cluster di storage, con ogni alloggiamento del controller che può essere scalato con unità di elaborazione grafica (GPU), unità di elaborazione dati (DPU) o unità di elaborazione neurale (NPU) per il calcolo vicino allo storage.
Resilienza dei dati
L'architettura e la tecnologia innovative garantiscono un'affidabilità del 99,9999%. Un motore di rilevamento ransomware integrato garantisce un'accuratezza di rilevamento del 99,99%.
Sostenibilità
L'innovazione dell'hardware dei supporti di memorizzazione e dei sistemi migliora in modo significativo l'efficienza energetica e la densità di capacità dello storage.
Prodotto
Grazie all'architettura di separazione del piano di controllo dei dati e all'archiviazione della memoria a lungo termine, questo sistema di archiviazione soddisfa le esigenze di elaborazione dei dati E2E per l'addestramento e l'inferenza dell'intelligenza artificiale in vari settori industriali, come il credito finanziario, la ricerca sugli investimenti, la sanità e lo sviluppo di farmaci.
Risorse
Potrestiessere interessato
Che cos'è lo storage per l'IA?
Storage for AI è l'infrastruttura di archiviazione dei dati creata appositamente per i carichi di lavoro di AI e Machine Learning (ML). Deve soddisfare le esigenze di elevate prestazioni e scalabilità in ambienti con carichi di lavoro ibridi, gestire in modo efficace le enormi quantità di dati richieste durante il processo di IA e garantire la rapidità di lettura, scrittura ed elaborazione dei dati. I sistemi di storage progettati per l'IA aiutano i cluster di formazione a migliorare l'efficienza dell'ingestione e della pre-elaborazione dei dati, aumentando l'utilizzo dei cluster di calcolo. Inoltre, migliorano l'efficacia dei costi e l'accuratezza delle applicazioni di inferenza.