This site uses cookies. By continuing to browse the site you are agreeing to our use of cookies. Read our privacy policy>Search

Recherche

Présentation

  • Présentation
  • Fonctionnalités
  • Spécifications
  • Ressources
  • Support technique
  • Pour les partenaires
iMaster NCE-Fabric

iMaster NCE-Fabric

La solution CloudFabric de Huawei offre aux clients un déploiement réseau simplifié, une exploitation et une maintenance intelligentes du réseau, une interconnexion de très haut débit et un écosystème ouvert pour les réseaux de data centers de nouvelle génération, prenant en charge le développement à grande vitesse des services cloud d'entreprise.

Low Latency, No Loss

Automatisation

iMaster NCE-Fabric transpose les exigences de service en modèles et configurations de réseau logique et les applique par lots aux appareils. La période de déploiement des services passe ainsi de plusieurs semaines à quelques minutes.

Safety authentication

Fiabilité

iMaster NCE-Fabric offre des fonctionnalités de cluster d'une grande fiabilité. Il traite les services southbound (« vers le sud ») et northbound (« vers le nord ») en mode d'équilibrage de charge et peut être déployé en mode actif/veille pour procéder à la récupération en cas de sinistre à distance, en respectant les exigences de fiabilité des services de data center.

Sécurité

iMaster NCE-Fabric offre une protection de sécurité avec le minimum de granularité pour les réseaux de data centers. Il définit la microsegmentation en fonction des adresses IP, des noms d'hôte et des noms de machine virtuelle, et offre une isolation de sécurité avec une granularité la plus faible possible pour éviter les menaces.

Spécifications

Fonctionnalité

Description

Provisionnement de services réseau

  • Prend en charge l'interconnexion avec la plate-forme cloud grand public OpenStack ou des applications tierces, de la couche 2 à la couche 7. La plate-forme cloud et les applications tierces ont recours aux interfaces standard pour assurer le provisionnement des services réseau.
  • Prend en charge le provisionnement indépendant de services réseau (y compris l'association aux plates-formes de calcul) pour mettre en œuvre le déploiement automatique du réseau.

Gestion d'infrastructure

Utilise le protocole standard VXLAN pour mettre en œuvre le déploiement automatique du réseau, y compris l'encapsulation du protocole VXLAN. Le contrôleur agile DCN prend également en charge l'interconnexion VXLAN des couches 2 et 3, ainsi que l'interconnexion entre les réseaux VXLAN et les réseaux traditionnels.

  • Prend en charge divers scénarios de réseaux VXLAN, ainsi que la gestion et le contrôle des périphériques réseau logiciels et matériels.
  • Permet également l'accès hybride de plusieurs types de terminaux (serveurs physiques, machines virtuelles, serveurs "bare metal", etc.) dans différents scénarios.

Chaînage de fonctions de service

  • Prend en charge le modèle de chaînage de fonctions de service (SFC, Service Function Chaining) basé sur IETF et adopte le protocole PBR ou NSH comme technologies de déviation du trafic afin de guider le trafic vers différents nœuds pour le traitement de service. Cette procédure permet la mise en œuvre de la fonction SFC indépendante de la topologie avec l'orchestration graphique et la configuration automatique.
  • Fournit des services à valeur ajoutée, dont la stratégie de sécurité, la fonction NAT et le VPN IPSec.

Exploitation, maintenance et localisation des pannes

  • Prend en charge la surveillance des ressources physiques, logiques et locataires.
  • Prend en charge la visibilité des topologies de réseaux logiques, physiques et d'applications. Permet l'affichage des mappages entre l'application et la topologie logique, et entre les topologies logique et physique.
  • Affiche les voies d'acheminement des points de terminaison de tunnels virtuels et des machines virtuelles dans des scénarios VXLAN pour fournir des données de localisation précises du réseau logique au réseau physique.
  • Prend en charge la détection de boucle intelligente et la réparation en un clic.
  • Prend en charge la détection de la connectivité réseau des couches 2 ou 3, entre machines virtuelles, et entre machines virtuelles et réseaux externes, par ping IP et MAC, ce qui aide les administrateurs à corriger rapidement les pannes.
  • Prend en charge la mise en miroir du trafic (le trafic généré par des machines virtuelles ou des serveurs "bare metal" peut être mis en miroir vers des adresses distantes via des tunnels GRE).

Ouverture

  • Basé sur ONOS et compatible avec l'architecture ODL.
  • Prend en charge l'interconnexion avec la plate-forme grand public OpenStack (OpenStack standard, Red Hat, Mirantis et UnitedStack) via des interfaces Northbound, telles que RESTful, RESTCONF, WebService et Syslog, de la couche 2 à la couche 7.
  • Prend en charge l'interconnexion avec les périphériques réseau physiques et virtuels à l'aide des protocoles Southbound, tels que SNMP, NETCONF, OpenFlow, OVSDB, JSON-RPC et sFlow.
  • Prend en charge l'interconnexion avec un système de gestion des ressources de calcul, tel que VMware vCenter et Microsoft System Center, pour une collaboration avec les ressources réseau et de calcul.

Fiabilité

  • Adopte le déploiement de cluster distribué. Un cluster prend en charge jusqu'à 128 nœuds membres. Le nœud de contrôle de service prend en charge l'extension dynamique sans interruption de service.
  • Prend en charge le déploiement des membres du cluster dans le même réseau de couche 2 ou au sein d'un réseau de couche 3, à condition que les voies reliant les membres du cluster soient accessibles.
  • Équilibre la charge des requêtes API de la plate-forme cloud Northbound ou l'accès Web aux différents nœuds du contrôleur.
  • Prend en charge l'équilibrage de charge Southbound. Répartit uniformément les périphériques sur l'ensemble du réseau pour une gestion par différents nœuds de contrôleur. Lorsqu'une panne survient sur l'un des nœuds du contrôleur, les périphériques réseau gérés par le contrôleur peuvent être facilement basculés vers d'autres nœuds normaux pour éviter toute interruption de service.

Capacité de gestion et performances

Configuration de cluster à nœud unique

  • Nombre de périphériques réseau physiques gérés : 600
  • Nombre de serveurs physiques gérés : 3 000
  • Nombre de machines virtuelles gérées : 60 000

Configuration typique : trois nœuds

  • Nombre de périphériques réseau physiques gérés : 1 800
  • Nombre de serveurs physiques gérés : 9 000
  • Nombre de machines virtuelles gérées : 180 000
  • Taux de machines virtuelles en ligne : 200 par seconde

Configuration typique : cinq nœuds

  • Nombre de périphériques réseau physiques gérés : 3 000
  • Nombre de serveurs physiques gérés : 15 000
  • Nombre de machines virtuelles gérées : 300 000
  • Taux de machines virtuelles en ligne : 350 par seconde

Support technique

TOP