OceanStor AIストレージ
AIのための強固なデータ基盤を構築し、
インテリジェンスをすぐに利用できるようにします
このサイトはCookieを使用しています。 サイトを閲覧し続けることで、Cookieの使用に同意したものとみなされます。 プライバシーポリシーを読む>
企業ユーザー向け製品、ソリューション、サービス
AIのための設計
大規模なAIモデルがマルチモーダル時代に移行するにつれ、企業はモデルの学習と推論において、学習コンピューティングパワー利用率が低い、推論応答が遅い、ハルシネーション、長いシーケンスを扱えない、推論コストが高い、などの課題に直面しています。
こうした課題への答えは?
ファーウェイのAI向けOceanStor次世代高性能分散型ファイルストレージは、エンドツーエンド(E2E)のAIトレーニングおよび推論データプロセス向けの統合ストレージソリューションを提供します。企業がデータサイロを克服し、多様なコーパスデータを集約し、AIクラスターのコンピューティングパワー利用率を向上させ、推論体験を強化するのに役立ちます。
世界的に認知されているMLPERF™ベンチマークテストにおいて、OceanStor A800は主要な代替製品よりもトレーニングセットのロードを8倍速くし、チェックポイントからのトレーニング再開を4倍高速にし、こうした性能で1位を獲得しました。
6つのイノベーション
大規模なAIモデルのトレーニングと推論の需要に応えるため、ファーウェイは分散ファイルストレージを再定義し、AI専用のストレージシステムを構築するための6つの主要なイノベーションに焦点を当てています。
超高性能
ストレージ性能は従来の10倍に向上し、数百TB/秒の帯域幅と1億レベルの入出力オペレーション(IOPS/秒)を実現し、生成AI(GenAI)プロセス全体を高速化します。
新しいデータパラダイム
テンソル、ベクトル、KV(Key-Value)キャッシュなど、最先端のAIデータパラダイムがサポートされています。RAG(Retrieval-AugmentedGeneration)テクノロジーは、AIのハルシネーションを軽減します。マルチレベルKVキャッシュは、推論効率を向上させながら、TTFT(Time-To-First-Token)を削減します。
データファブリック
ストレージのメタデータ管理と検索により、グローバルなデータの可視性と管理性の実現に加え、10倍効率的なデータモビリティを実現します。
スケーラビリティ
各コントローラエンクロージャにGPU(Graphics Processing Unit)、DPU(Data Processing Unit)、NPU(Neural Processing Unit)を搭載し、ストレージに近いコンピューティングを実現することで、単一ストレージクラスタのエクサバイトレベルのスケールアウトをサポートします。
データの回復力
革新的なアーキテクチャとテクノロジーにより、99.9999%の信頼性を実現。内蔵のランサムウェア検出エンジンが99.99%の検出精度を実現。
持続可能性
ストレージメディアアプリケーションとシステムハードウェアの革新により、ストレージのエネルギー効率と容量密度が大幅に向上。
製品
データ制御プレーン分離アーキテクチャと長期メモリストレージを採用したこのストレージシステムは、金融クレジット、投資研究、医療、医薬品開発など、さまざまな産業分野におけるAIトレーニングと推論におけるE2Eデータ処理ニーズを満たします。
世界の成功事例
リソース
関心をお持ちですか?
AI向けストレージとは?
AI向けストレージは、AIおよび機械学習(ML)ワークロード向けに構築されたデータストレージインフラです。ハイブリッドワークロード環境における高いパフォーマンスと拡張性の要求を満たし、AIプロセス全体で必要とされる大量のデータを効率的に管理し、データの読み取り、書き込み、処理を迅速に行う必要があります。AI向けに設計されたストレージシステムは、トレーニングクラスタがデータの取り込みと前処理の効率を向上させ、コンピューティングクラスタの利用率を高めるのに役立ちます。また、推論アプリケーションの費用対効果と精度も向上します。