OceanStor AIストレージ
AIのための強固なデータ基盤を構築し、
インテリジェンスをすぐに利用できるようにします
このサイトはCookieを使用しています。 サイトを閲覧し続けることで、Cookieの使用に同意したものとみなされます。 プライバシーポリシーを読む>
企業ユーザー向け製品、ソリューション、サービス
AIのための設計
大規模なAIモデルがマルチモーダル時代に移行するにつれ、企業はモデルの学習と推論において、学習コンピューティングパワー利用率が低い、推論応答が遅い、ハルシネーション、長いシーケンスを扱えない、推論コストが高い、などの課題に直面しています。
こうした課題への答えは?
ファーウェイのAI向けOceanStor次世代高性能分散型ファイルストレージは、エンドツーエンド(E2E)のAIトレーニングおよび推論データプロセス向けの統合ストレージソリューションを提供します。企業がデータサイロを克服し、多様なコーパスデータを集約し、AIクラスターのコンピューティングパワー利用率を向上させ、推論体験を強化するのに役立ちます。
世界的に認知されているMLPERF™ベンチマークテストにおいて、OceanStor Aシリーズ ストレージはは主要な代替製品よりもトレーニングセットのロードを8倍速くし、チェックポイントからのトレーニング再開を4倍高速にし、こうした性能で1位を獲得しました。
6つのイノベーション
大規模なAIモデルのトレーニングと推論の需要に応えるため、ファーウェイは分散ファイルストレージを再定義し、AI専用のストレージシステムを構築するための6つの主要なイノベーションに焦点を当てています。
超高性能
ストレージ性能は従来の10倍に向上し、数百TB/秒の帯域幅と1億レベルの入出力オペレーション(IOPS/秒)を実現し、生成AI(GenAI)プロセス全体を高速化します。
新しいデータパラダイム
テンソル、ベクトル、KV(Key-Value)キャッシュなど、最先端のAIデータパラダイムがサポートされています。RAG(Retrieval-AugmentedGeneration)テクノロジーは、AIのハルシネーションを軽減します。マルチレベルKVキャッシュは、推論効率を向上させながら、TTFT(Time-To-First-Token)を削減します。
データファブリック
ストレージのメタデータ管理と検索により、グローバルなデータの可視性と管理性の実現に加え、10倍効率的なデータモビリティを実現します。
スケーラビリティ
各コントローラエンクロージャにGPU(Graphics Processing Unit)、DPU(Data Processing Unit)、NPU(Neural Processing Unit)を搭載し、ストレージに近いコンピューティングを実現することで、単一ストレージクラスタのエクサバイトレベルのスケールアウトをサポートします。
データの回復力
革新的なアーキテクチャとテクノロジーにより、99.9999%の信頼性を実現。内蔵のランサムウェア検出エンジンが99.99%の検出精度を実現。
持続可能性
ストレージメディアアプリケーションとシステムハードウェアの革新により、ストレージのエネルギー効率と容量密度が大幅に向上。
製品
このストレージシステムはデータ制御プレーン分離アーキテクチャと長期メモリストレージを使用することで、金融信用、投資調査、医療、医薬品開発など、さまざまな業界分野におけるAIトレーニングと推論のE2Eデータ処理ニーズを満たします。
OceanStor A600は極めて高いパフォーマンス密度を提供し、推論を高速化し、AIのトレーニングと推論におけるE2Eデータ処理のニーズを満たします。そのため、金融投資や研究、法務文書、医療記録の評価、医薬品の研究開発など、業界特有のシナリオで幅広く活用できます。
リソース
さらに表示
さらに表示
関心をお持ちですか?
AI向けストレージとは?
AI向けストレージは、AIおよび機械学習(ML)ワークロード向けに構築されたデータストレージインフラです。ハイブリッドワークロード環境における高いパフォーマンスと拡張性の要求を満たし、AIプロセス全体で必要とされる大量のデータを効率的に管理し、データの読み取り、書き込み、処理を迅速に行う必要があります。AI向けに設計されたストレージシステムは、トレーニングクラスタがデータの取り込みと前処理の効率を向上させ、コンピューティングクラスタの利用率を高めるのに役立ちます。また、推論アプリケーションの費用対効果と精度も向上します。