ADC

FAQ

Liste des FAQ sur le clustering.

Combien d’appliances Citrix ADC peuvent être incluses dans un seul cluster Citrix ADC ?

Un cluster Citrix ADC peut inclure une appliance ou jusqu’à 32 appliances matérielles ou virtuelles Citrix ADC nCore. Chacun de ces nœuds doit satisfaire aux critères spécifiés dans Prérequis pour les nœuds de cluster.

Un dispositif Citrix ADC peut-il faire partie de plusieurs clusters ?

Non. Une appliance Citrix ADC ne peut appartenir qu’à un seul cluster.

Qu’est-ce qu’une adresse IP de cluster ? Quel est son masque de sous-réseau ?

L’adresse IP du cluster est l’adresse de gestion d’un cluster Citrix ADC. Toutes les configurations de cluster doivent être effectuées en accédant au cluster via cette adresse. Le masque de sous-réseau de l’adresse IP du cluster est fixé à 255.255.255.255.

Comment puis-je créer un nœud de cluster spécifique en tant que coordinateur de configuration du cluster ?

Pour définir manuellement un nœud spécifique en tant que coordinateur de configuration du cluster, vous devez définir la priorité de ce nœud sur la valeur numérique la plus faible (priorité la plus élevée). Pour comprendre, considérons un cluster à trois nœuds qui ont les priorités suivantes :

n1 - 29, n2 - 30, n3 - 31

Ici, n1 est le coordinateur de configuration. Si vous souhaitez faire de n2 le coordinateur de configuration, vous devez définir sa priorité sur une valeur inférieure à n1, par exemple 28. Lors de l’enregistrement de la configuration, n2 devient le coordinateur de configuration.

Remarque

n2 avec sa valeur de priorité initiale de 30 devient le coordinateur de configuration lorsque n1 tombe en panne. Le nœud ayant la valeur de priorité la plus basse suivante est sélectionné en cas de panne du coordinateur de configuration.

Pourquoi les interfaces réseau d’un cluster sont-elles représentées en notation à 3 tuples (n/u/c) au lieu de la notation normale à 2 tuples (u/c) ?

Lorsqu’une appliance Citrix ADC fait partie d’un cluster, vous devez être en mesure d’identifier le nœud auquel appartient l’interface. Par conséquent, la convention de dénomination de l’interface réseau pour les nœuds du cluster est modifiée de u/c à n/u/c, où n désigne l’identifiant du nœud.

Comment définir le nom d’hôte d’un nœud de cluster ?

Le nom d’hôte d’un nœud de cluster doit être spécifié en exécutant la commande set ns hostname via l’adresse IP du cluster. Par exemple, pour définir le nom d’hôte du nœud de cluster avec l’ID 2, la commande est la suivante :

set ns hostname hostName1 -ownerNode 2

Puis-je détecter automatiquement les appliances Citrix ADC afin de les ajouter à un cluster ?

Oui. L’utilitaire de configuration vous permet de découvrir les appliances présentes dans le même sous-réseau que l’adresse NSIP du coordinateur de configuration. Pour plus d’informations, voir Découvrir les appliances NetScaler.

La capacité de service de trafic d’un cluster est-elle affectée si un nœud est supprimé ou désactivé, redémarré ou arrêté ou rendu inactif ?

Oui. Lorsque l’une de ces opérations est effectuée sur un nœud actif du cluster, le cluster dispose d’un nœud de moins pour acheminer le trafic. Les connexions existantes sur ce nœud sont également interrompues.

J’ai plusieurs appliances autonomes, chacune ayant des configurations différentes. Puis-je les ajouter à un seul cluster ?

Oui. Vous pouvez ajouter des appliances ayant des configurations différentes à un seul cluster. Toutefois, lorsque l’appliance est ajoutée au cluster, les configurations existantes sont effacées. Pour utiliser les configurations disponibles sur chaque appliance individuelle, vous devez :

  1. Créez un seul fichier*.conf pour toutes les configurations.
  2. Modifiez le fichier de configuration pour supprimer les fonctionnalités qui ne sont pas prises en charge dans un environnement de cluster.
  3. Mettez à jour la convention de dénomination des interfaces du format à 2 tuples (u/c) au format à 3 tuples (n/u/c).
  4. Appliquez les configurations au nœud coordinateur de configuration du cluster à l’aide de la commande batch .

Puis-je migrer les configurations d’une appliance Citrix ADC autonome ou d’une configuration HA vers la configuration en cluster ?

Non. Lorsqu’un nœud est ajouté à une configuration en cluster, ses configurations sont implicitement effacées à l’aide de la commande clear ns config (avec l’option étendue). De plus, les adresses SNIP et toutes les configurations VLAN (à l’exception du VLAN et du NSVLAN par défaut) sont effacées. Il est donc recommandé de sauvegarder les configurations avant d’ajouter l’appliance à un cluster. Avant d’utiliser le fichier de configuration sauvegardé pour le cluster, vous devez :

  1. Modifiez le fichier de configuration pour supprimer les fonctionnalités qui ne sont pas prises en charge dans un environnement de cluster.
  2. Mettez à jour la convention de dénomination des interfaces du format à deux tuples (x/y) au format à trois tuples (x/y/z).
  3. Appliquez les configurations au nœud coordinateur de configuration du cluster à l’aide de la commande batch .

Les interfaces de fond de panier font-elles partie des VLAN L3 ?

Oui, par défaut, les interfaces de fond de panier sont présentes sur tous les VLAN L3 configurés sur le cluster.

Comment configurer un cluster qui inclut des nœuds provenant de différents réseaux ?

Remarque

Pris en charge à partir de NetScaler 11.0.

Un cluster qui inclut des nœuds provenant de différents réseaux est appelé cluster L3 (parfois appelé cluster en mode INC). Dans un cluster L3, tous les nœuds appartenant à un réseau unique doivent être regroupés dans un seul groupe de nœuds. Par conséquent, si un cluster comprend deux nœuds provenant chacun de trois réseaux différents, vous devez créer 3 groupes de nœuds (un pour chaque réseau) et associer chacun de ces groupes de nœuds aux nœuds appartenant à ce réseau. Pour plus d’informations sur la configuration, consultez les étapes de configuration d’un cluster.

Comment puis-je configurer/déconfigurer le NSVLAN sur un cluster ?

Procédez de l’une des manières suivantes :

  • Pour rendre le NSVLAN disponible dans un cluster, assurez-vous que le même NSVLAN est configuré sur chaque appliance avant de l’ajouter à un cluster.

  • Pour supprimer le NSVLAN d’un nœud de cluster, commencez par supprimer le nœud du cluster, puis supprimez le NSVLAN de l’appliance.

J’ai configuré un cluster dans lequel certains nœuds Citrix ADC ne sont pas connectés au réseau externe. Le cluster peut-il toujours fonctionner normalement ?

Oui. Le cluster prend en charge un mécanisme appelé linksets, qui permet aux nœuds non connectés de servir le trafic en utilisant les interfaces des nœuds connectés. Les nœuds non connectés communiquent avec les nœuds connectés via le backplane du cluster. Pour plus d’informations, voir Utilisation de jeux de liens.

Comment les déploiements nécessitant le transfert basé sur Mac (MBF) peuvent-ils être pris en charge dans une configuration en cluster ?

Les déploiements qui utilisent MBF doivent utiliser des jeux de liens. Pour plus d’informations, voir Utilisation de jeux de liens.

Puis-je exécuter des commandes à partir de l’adresse NSIP d’un nœud de cluster ?

Non. L’accès à des nœuds de cluster individuels via les adresses NSIP est en lecture seule. Par conséquent, lorsque vous vous connectez à l’adresse NSIP d’un nœud de cluster, vous ne pouvez consulter que les configurations et les statistiques. Vous ne pouvez rien configurer. Toutefois, il existe certaines opérations que vous pouvez exécuter à partir de l’adresse NSIP d’un nœud de cluster. Pour plus d’informations, voir Opérations prises en charge sur des nœuds individuels.

Puis-je désactiver la propagation de la configuration entre les nœuds de cluster ?

Non, vous ne pouvez pas désactiver explicitement la propagation des configurations de cluster entre les nœuds de cluster. Toutefois, lors d’une mise à niveau ou d’une rétrogradation logicielle, une erreur d’incompatibilité de version peut automatiquement désactiver la propagation de la configuration.

Puis-je modifier l’adresse NSIP ou le NSVLAN d’une appliance Citrix ADC lorsqu’elle fait partie du cluster ?

Non. Pour effectuer de telles modifications, vous devez d’abord supprimer l’appliance du cluster, effectuer les modifications, puis ajouter l’appliance au cluster.

Le cluster Citrix ADC prend-il en charge les réseaux locaux virtuels L2 et L3 ?

Oui. Un cluster prend en charge les VLAN entre les nœuds du cluster. Les VLAN doivent être configurés sur l’adresse IP du cluster.

  • VLAN L2. Vous pouvez créer un VLAN de couche 2 en liant des interfaces appartenant à différents nœuds du cluster.
  • VLAN L3. Vous pouvez créer un VLAN de couche 3 en liant des adresses IP appartenant à différents nœuds du cluster. Les adresses IP doivent appartenir au même sous-réseau. Assurez-vous que l’un des critères suivants est satisfait. Sinon, les liaisons VLAN L3 peuvent échouer.

    • Tous les nœuds ont une adresse IP sur le même sous-réseau que celui lié au VLAN.
    • Le cluster possède une adresse IP par bandes et le sous-réseau de cette adresse IP est lié au VLAN.

Lorsque vous ajoutez un nœud à un cluster qui ne possède que des adresses IP repérées, la synchronisation se produit avant que les adresses IP repérées ne soient attribuées à ce nœud. Dans de tels cas, les liaisons VLAN L3 peuvent être perdues. Pour éviter cette perte, ajoutez une adresse IP par bandes ou ajoutez les liaisons VLAN L3 sur le NSIP du nœud nouvellement ajouté.

Comment configurer le protocole SNMP sur un cluster Citrix ADC ?

Le protocole SNMP surveille le cluster et tous les nœuds du cluster de la même manière qu’il surveille un dispositif autonome. La seule différence est que le protocole SNMP d’un cluster doit être configuré via l’adresse IP du cluster. Lors de la génération d’interruptions spécifiques au matériel, deux varbinds supplémentaires sont inclus pour identifier le nœud du cluster : l’ID du nœud et l’adresse NSIP du nœud.

Quels détails dois-je disposer lorsque je contacte le support technique pour des problèmes liés au cluster ?

L’appliance Citrix ADC fournit une commande show techsupport -scope cluster qui extrait les données de configuration, les informations statistiques et les journaux de tous les nœuds du cluster. Exécutez cette commande sur l’adresse IP du cluster.

La sortie de cette commande est enregistrée dans un fichier nommécollector_cluster_ _P_ .tar.gz qui est disponible dans le répertoire /var/tmp/support/cluster/du coordinateur de configuration. <nsip_CCO><date-timestamp>

Envoyez cette archive à l’équipe d’assistance technique pour résoudre le problème.

Puis-je utiliser des adresses IP réparties par bandes comme passerelle par défaut des serveurs ?

Dans les déploiements de clusters, assurez-vous que la passerelle par défaut du serveur pointe vers une adresse IP par bandes (si vous utilisez une adresse IP appartenant à Citrix ADC). Par exemple, dans le cas de déploiements LB avec l’USIP activé, la passerelle par défaut doit être une adresse SNIP entrelacée.

Puis-je consulter les configurations de routage d’un nœud de cluster spécifique à partir de l’adresse IP du cluster ?

Oui. Vous pouvez afficher et effacer les configurations spécifiques à un nœud en spécifiant le nœud propriétaire lors de l’accès au shell VTYSH.

Par exemple, pour afficher la sortie d’une commande sur les nœuds 0 et 1, la commande est la suivante :

\> vtysh
ns# owner-node 0 1
ns(node-0 1)\# show cluster state
ns(node-0 1)\# exit-cluster-node
ns\#

Comment puis-je spécifier le nœud pour lequel je veux définir la priorité système LACP ?

Remarque

Pris en charge à partir de NetScaler 10.1.

Dans un cluster, vous devez définir ce nœud comme nœud propriétaire à l’aide de la commande set lacp .

Par exemple,pour définir la priorité du système LACP pour un nœud dont l’ID est 2 :

set lacp -sysPriority 5 -ownerNode 2<!--NeedCopy-->

Comment les tunnels IP sont-ils configurés dans une configuration de cluster ?

Remarque

Pris en charge à partir de NetScaler 10.1.

La configuration des tunnels IP dans un cluster est la même que sur une appliance autonome. La seule différence est que dans une configuration de cluster, l’adresse IP locale doit être une adresse SNIP entrelacée.

Comment ajouter un ensemble d’interfaces de basculement (FIS) sur les nœuds d’un cluster Citrix ADC ?

Remarque

Pris en charge à partir de NetScaler 10.5.

Sur l’adresse IP du cluster, spécifiez l’ID du nœud de cluster sur lequel le FIS doit être ajouté, à l’aide de la commande suivante :

add fis <name> -ownerNode <nodeId>

Remarques

  • Le nom FIS de chaque nœud de cluster doit être unique.
  • Un canal LA de cluster peut être ajouté à un FIS. Assurez-vous que le canal LA du cluster dispose d’une interface locale en tant qu’interface membre.

Pour plus d’informations sur FIS, voir Configuration du jeu d’interfaces de basculement.

Comment les profils réseau sont-ils configurés dans une configuration de cluster ?

Remarque

Pris en charge à partir de NetScaler 10.5.

Vous pouvez associer les adresses IP repérées à un profil réseau. Ce profil réseau peut ensuite être lié à un serveur ou à un service virtuel d’équilibrage de charge repéré (défini à l’aide d’un groupe de nœuds). Les recommandations suivantes doivent être suivies, faute de quoi les configurations du profil réseau ne sont pas respectées et les paramètres USIP/USNIP sont utilisés :

Remarque

  • Si le paramètre strict du groupe de nœuds est défini sur Oui, le profil réseau doit contenir au moins une adresse IP de chaque membre du groupe de nœuds.
  • Si le paramètre strict du groupe de nœuds est défini sur Non, le profil réseau doit inclure au moins une adresse IP de chacun des nœuds du cluster.

Comment puis-je configurer WionNS dans une configuration de cluster ?

Remarque

Pris en charge à partir de NetScaler 11.0 Build 62.x.

Pour utiliser WionNS sur un cluster, vous devez effectuer les opérations suivantes :

  1. Assurez-vous que le package Java et le package WI se trouvent dans le même répertoire sur tous les nœuds du cluster.
  2. Créez un serveur virtuel d’équilibrage de charge dont la persistance est configurée.
  3. Créez des services avec des adresses IP comme adresse NSIP de chacun des nœuds du cluster auxquels vous souhaitez acheminer le trafic Wi-Fi. Cette étape ne peut être configurée qu’à l’aide de l’interface de ligne de commande Citrix ADC.
  4. Liez les services au serveur virtuel d’équilibrage de charge.

Remarque

Si vous utilisez WionNS via une connexion VPN, assurez-vous que le serveur virtuel d’équilibrage de charge est défini comme WIHOME.

Le canal LA du cluster peut-il être utilisé pour l’accès de gestion ?

Non. L’accès de gestion à un nœud de cluster ne doit pas être configuré sur un canal LA du cluster (par exemple, CLA/1) ou sur ses interfaces membres. En effet, lorsque le nœud est INACTIF, l’interface LA du cluster correspondante est marquée comme étant hors tension et perd donc l’accès à la gestion.

Comment les nœuds du cluster communiquent-ils entre eux et quels sont les différents types de trafic qui transitent par le backplane ?

Un backplane est un ensemble d’interfaces dans lequel une interface de chaque nœud est connectée à un commutateur commun, appelé commutateur de fond de cluster. Les différents types de trafic qui transitent par un fond de panier utilisé par la communication entre nœuds sont les suivants :

  • Messagerie nœud à nœud (NNM)
  • Trafic dirigé
  • Propagation et synchronisation de la configuration

Chaque nœud du cluster utilise une adresse de commutateur de fond de cluster MAC spéciale pour communiquer avec les autres nœuds via le backplane. Le MAC spécial du cluster est de la forme : 0x02 0x00 0x6F <cluster_id> <node_id> <reserved>, où se <cluster_id>trouve l’ID de l’instance du cluster. <node_id> Il s’agit du numéro de nœud de l’appliance Citrix ADC ajoutée à un cluster.

Remarque

La quantité de trafic gérée par un backplane représente une charge de processeur négligeable.

Qu’est-ce qui est acheminé via le tunnel GRE pour le cluster de couche 3 ?

Seul le trafic de données dirigé passe par le tunnel GRE. Les paquets sont dirigés via le tunnel GRE vers le nœud de l’autre sous-réseau.

Comment les messages de messagerie nœud à nœud (NNM) et les messages de battement de cœur sont-ils échangés et comment sont-ils acheminés ?

Le NNM, les messages de pulsation et le protocole de cluster ne dirigent pas le trafic. Ces messages ne sont pas envoyés via le tunnel, mais ils sont acheminés directement.

Quelles sont les recommandations du MTU lorsque les trames Jumbo sont activées pour le trafic tunnelisé en cluster de couche 3 ?

Voici les recommandations relatives aux clusters de couche 3 du tunnel Jumbo MTU sur GRE :

  • Le MTU Jumbo peut être configuré entre les nœuds du cluster le long du chemin L3 pour s’adapter à la surcharge du tunnel GRE.
  • La fragmentation ne se produit pas pour les paquets de taille normale qui doivent être dirigés.
  • La gestion du trafic continue de fonctionner même si les cadres Jumbo ne sont pas autorisés, mais avec une surcharge accrue en raison de la fragmentation.

Comment la clé de hachage globale est-elle générée et partagée entre tous les nœuds ?

Le rsskey pour un dispositif autonome est généré au moment du démarrage. Dans une configuration de cluster, le premier nœud contient le rsskey cluster. Chaque nouveau nœud rejoignant le cluster synchronise le rsskey.

La commande set rsskeytype –rsskey symmetric pour les topologies *: *, USIP activé, useproxyport désactivé est-elle nécessaire ?

Il n’est pas spécifique à un cluster, mais s’applique également à une appliance autonome. Lorsque l’USIP est activé et que l’utilisation du port proxy est désactivée, Symetric rsskey réduit à la fois le pilotage Core to Core (C2C) et le pilotage nœud à nœud.

Quels sont les facteurs qui contribuent à modifier le nœud CCO ?

Le premier nœud ajouté pour former une configuration de cluster devient le nœud de coordinateur de configuration (CCO). Les facteurs suivants contribuent à modifier le nœud CCO dans la configuration du cluster :

  • Lorsque le nœud CCO actuel est supprimé de la configuration du cluster
  • Lorsque le nœud CCO actuel se bloque
  • Lorsque la priorité du nœud non-CCO est modifiée (une priorité plus faible a une priorité plus élevée)
  • Dans des conditions dynamiques telles que l’accessibilité du réseau entre les nœuds
  • En cas de modification de l’état des nœuds : actif, de réserve et passif. Les nœuds actifs sont préférés en tant que CCO.
  • Lorsqu’il y a un changement de configuration et que le nœud ayant la dernière configuration est préféré en tant que CCO.

Puis-je former un cluster avec des nœuds de différentes plateformes matérielles ?

Oui. L’appliance NetScaler prend en charge un cluster hétérogène. Un cluster hétérogène peut comporter une combinaison de différentes plateformes dans le même cluster. Pour plus d’informations, consultez la section Prise en charge des clusters hétérogènes.

FAQ

Dans cet article