Requêtes
Atlas 800
Conçue sur mesure pour les développeurs IA et les chercheurs en matière de données, l'appliance Huawei Atlas 800 AI offre des fonctionnalités de bout en bout dans le déploiement de services d'étiquetage des données, de génération de modèles, de formation de modèles et d'inférence de modèles. Avec ses logiciels et matériels intégrés, cette appliance réduit les exigences techniques d'entrée de l'application d'IA et permet le développement et le déploiement rapides de services d'IA pour les clients.
L'appliance Huawei Atlas 800 AI fournit un composant de service de deep learning (DLS) en tant que plate-forme de deep learning centralisée. Elle intègre un grand nombre d'algorithmes de modèles de réseau optimisés pour aider les utilisateurs à gérer facilement les technologies de deep learning de manière pratique et efficace, et fournit aux utilisateurs des services de formation, d'évaluation et d'inférence de modèles par l'intermédiaire d'une programmation souple et de services à la demande.
Opérationnelle en deux heures grâce à un environnement de développement d'IA préinstallé, une bibliothèque de logiciels sous-jacente et un cadre de développement. Génération automatique de modèles avec AutoDL, réglage automatique des hyperparamètres et déploiement de modèle en un clic.
Environnement d'IA optimisé basé sur un cadre standard et un environnement de programmation. Algorithmes de programmation hautes performances, améliorant l'utilisation des ressources de plus de 15 %.
Gestion globale de l'utilisation des ressources, surveillance de l'intégrité et planification des tâches. Interface utilisateur Web simple d'utilisation, plus intuitive et efficace que l'interface de ligne de commande (CLI).
Paramètres | Infos | |
Modèle | Atlas 800 | |
Grappe | Nœuds maximum | 128 |
Utilisateurs | 1 000 | |
Tâches recommandées (par utilisateur) | Formation | 10 |
Inférence | 5 | |
Visualisation | 5 | |
Développement de code | 4 | |
Interface utilisateur Web et services Capacité de traitement |
Utilisateurs en ligne maximum | 30 |
Requêtes simultanées maximum | 30 par seconde | |
Latence de traitement de requête | 3 secondes | |
Capacité de traitement d'API | Utilisateurs en ligne maximum | 30 |
Requêtes simultanées maximum | 30 par seconde | |
Latence de traitement de requête | 3 secondes | |
Spécifications matérielles | Carte accélératrice IA | Chaque carte accélératrice IA pleine largeur : 8 cartes accélératrices IA pleine hauteur pleine longueur (PCIe ou NVLink) |
Serveur | Chaque nœud de calcul pleine largeur à 2 sockets : 2 processeurs, 24 DIMM DDR4 |
|
Disques durs | 2 x 2,5 pouces SAS/SATA + 6 x 2,5 pouces NVMe Modèle PCIe : évolutif jusqu'à 8 x 3,5 pouces SAS/SATA Modèle NVLink : évolutif jusqu'à 8 x 2,5 pouces SAS/SATA |
|
RAID | RAID 0, 1, 10, 5, 50, 6 ou 60 | |
E/S | 4 x PCIe x16 LP + 2 x 10 GE LOM | |
Blocs d'alimentation | 4 unités d'alimentation remplaçables à chaud 2 200 W CA ou 240 V CCHT, avec prise en charge de la redondance N+N | |
Modules de ventilation | 6 modules de ventilation remplaçables à chaud, avec prise en charge de la redondance N+1 | |
Température | 5 °C à 35 °C (41 °F à 95 °F) | |
Dimensions (H x L x P) | 175 mm x 447 mm x 790 mm (6,89" x 17,60" x 31,10") |
Si vous êtes déjà partenaire, cliquez ici pour accéder à d'autres ressources marketing.
Cliquez ici pour visiter notre Espace Partenaires et suivre les requêtes, gérer les commandes, obtenir une assistance ou en savoir plus sur les partenaires Huawei.