Citrix ADC

Questions fréquentes

Une liste des questions fréquemment posées sur la mise en cluster.

Combien d’appliances Citrix ADC peuvent être incluses dans un seul cluster Citrix ADC ?

Un cluster Citrix ADC peut inclure une appliance ou jusqu’à 32 appliances matérielles ou virtuelles Citrix ADC nCore. Chacun de ces nœuds doit satisfaire aux critères spécifiés dans Conditions préalables pour les nœuds de cluster.

Un dispositif Citrix ADC peut-il faire partie de plusieurs clusters ?

Non. Une appliance Citrix ADC peut appartenir à un seul cluster.

Qu’est-ce qu’une adresse IP de cluster ? Quel est son masque de sous-réseau ?

L’adresse IP du cluster est l’adresse de gestion d’un cluster Citrix ADC. Toutes les configurations de cluster doivent être effectuées en accédant au cluster via cette adresse. Le masque de sous-réseau de l’adresse IP du cluster est fixé à 255.255.255.255.

Comment puis-je faire un nœud de cluster spécifique en tant que coordinateur de configuration de cluster ?

Pour définir manuellement un nœud spécifique comme coordinateur de configuration de cluster, vous devez définir la priorité de ce nœud sur la valeur numérique la plus basse (priorité la plus élevée). Pour comprendre, considérons un cluster avec trois nœuds qui ont les priorités suivantes :

n1 - 29, n2 - 30, n3 - 31

Ici, n1 est le coordinateur de configuration. Si vous voulez faire de n2 le coordinateur de configuration, vous devez définir sa priorité sur une valeur inférieure à n1, par exemple 28. Lors de l’enregistrement de la configuration, n2 devient le coordinateur de configuration.

Remarque

n2 avec sa valeur de priorité d’origine 30 deviendra également le coordinateur de configuration lorsque n1 tombe en panne, car le noeud avec la valeur de priorité la plus basse suivante est sélectionné dans le cas où le coordinateur de configuration tombe en panne.

Pourquoi les interfaces réseau d’un cluster sont-elles représentées en notation 3-tuple (n/u/c) au lieu de la notation 2-tuple régulière (u/c) ?

Lorsqu’une appliance Citrix ADC fait partie d’un cluster, vous devez être en mesure d’identifier le nœud auquel appartient l’interface. Par conséquent, la convention de dénomination de l’interface réseau pour les nœuds de cluster est modifiée de u/c à n/u/c, où n indique l’ID du nœud.

Comment puis-je définir le nom d’hôte d’un nœud de cluster ?

Le nom d’hôte d’un nœud de cluster doit être spécifié en exécutant la commande set ns hostname via l’adresse IP du cluster. Par exemple, pour définir le nom d’hôte du nœud de cluster avec l’ID 2, la commande est la suivante :

set ns hostname hostName1 -ownerNode 2

Puis-je détecter automatiquement les appliances Citrix ADC afin de pouvoir les ajouter à un cluster ?

Oui. L’utilitaire de configuration vous permet de découvrir les appliances présentes dans le même sous-réseau que l’adresse NSIP du coordinateur de configuration. Pour de plus amples informations, consultez Découvrir les appliances NetScaler.

La capacité de service de trafic d’un cluster est-elle affectée si un nœud est supprimé ou désactivé, redémarré ou arrêté ou rendu inactif ?

Oui. Lorsque l’une de ces opérations est effectuée sur un nœud actif du cluster, le cluster aura un nœud de moins pour servir le trafic. En outre, les connexions existantes sur ce nœud sont terminées.

J’ai plusieurs appareils autonomes, dont chacun a des configurations différentes. Puis-je les ajouter à un seul cluster ?

Oui. Vous pouvez ajouter des appliances ayant des configurations différentes à un seul cluster. Toutefois, lorsque l’appliance est ajoutée au cluster, les configurations existantes sont effacées. Pour utiliser les configurations disponibles sur chacune des appliances individuelles, vous devez :

  1. Créez un fichier*.conf unique pour toutes les configurations.
  2. Modifiez le fichier de configuration pour supprimer les entités qui ne sont pas prises en charge dans un environnement de cluster.
  3. Mettez à jour la convention de dénomination des interfaces du format 2-tuple (u/c) au format 3-tuple (n/u/c).
  4. Appliquez les configurations au nœud coordinateur de configuration du cluster à l’aide de la commande batchcommand.

Puis-je migrer les configurations d’une appliance Citrix ADC autonome ou d’une installation HA vers la configuration en cluster ?

Non. Lorsqu’un nœud est ajouté à une configuration en cluster, ses configurations sont implicitement effacées à l’aide de la commande clear ns config (avec l’option étendue). En outre, les adresses SNIP et toutes les configurations de VLAN (à l’exception du VLAN par défaut et du NSVLAN) sont effacées. Par conséquent, il est recommandé de sauvegarder les configurations avant d’ajouter l’appliance à un cluster. Avant d’utiliser le fichier de configuration sauvegardé pour le cluster, vous devez :

  1. Modifiez le fichier de configuration pour supprimer les entités qui ne sont pas prises en charge dans un environnement de cluster.
  2. Mettez à jour la convention de dénomination des interfaces du format à deux tuples (x/y) au format à trois tuples (x/y/z).
  3. Appliquez les configurations au nœud coordinateur de configuration du cluster à l’aide de la commande batch .

Les interfaces de backplane sont-elles intégrées aux VLAN L3 ?

Oui, par défaut, les interfaces de backplane sont présentes sur tous les VLAN L3 configurés sur le cluster.

Comment puis-je configurer un cluster qui inclut des nœuds provenant de différents réseaux ?

Remarque

Prise en charge à partir de NetScaler 11.0.

Un cluster qui inclut des nœuds provenant de différents réseaux est appelé cluster L3 (parfois appelé cluster en mode INC). Dans un cluster L3, tous les nœuds appartenant à un réseau unique doivent être regroupés dans un seul groupe de nœuds. Par conséquent, si un cluster comprend deux nœuds chacun de trois réseaux différents, vous devrez créer 3 groupes de nœuds (un pour chaque réseau) et associer chacun de ces groupes de nœuds aux nœuds qui appartiennent à ce réseau. Pour plus d’informations sur la configuration, reportez-vous aux étapes de configuration d’un cluster.

Comment puis-je configurer/désinstaller le NSVLAN sur un cluster ?

Faites l’une des opérations suivantes :

  • Pour rendre le NSVLAN disponible dans un cluster, assurez-vous que chaque appliance possède le même NSVLAN configuré avant d’être ajouté au cluster.

  • Pour supprimer le NSVLAN d’un nœud de cluster, supprimez d’abord le nœud du cluster, puis supprimez le NSVLAN de l’appliance.

J’ai une configuration de cluster où certains nœuds Citrix ADC ne sont pas connectés au réseau externe. Le cluster peut-il encore fonctionner normalement ?

Oui. Le cluster prend en charge un mécanisme appelé linksets, qui permet aux nœuds non connectés de servir le trafic en utilisant les interfaces des nœuds connectés. Les nœuds non connectés communiquent avec les nœuds connectés via le backplane du cluster. Pour de plus amples informations, consultez Utilisation des jeux de liens.

Comment les déploiements nécessitant le transfert basé sur Mac (MBF) peuvent-ils être pris en charge dans une configuration en cluster ?

Les déploiements qui utilisent MBF doivent utiliser des jeux de liens. Pour de plus amples informations, consultez Utilisation des jeux de liens.

Puis-je exécuter des commandes à partir de l’adresse NSIP d’un nœud de cluster ?

Non. L’accès aux nœuds de cluster individuels via les adresses NSIP est en lecture seule. Par conséquent, lorsque vous vous connectez à l’adresse NSIP d’un nœud de cluster, vous ne pouvez afficher que les configurations et les statistiques. Vous ne pouvez rien configurer. Toutefois, certaines opérations peuvent être exécutées à partir de l’adresse NSIP d’un nœud de cluster. Pour de plus amples informations, consultez Opérations prises en charge sur des nœuds individuels.

Puis-je désactiver la propagation de la configuration entre les nœuds de cluster ?

Non, vous ne pouvez pas désactiver explicitement la propagation des configurations de cluster entre les nœuds de cluster. Toutefois, lors d’une mise à niveau ou d’une mise à niveau logicielle, une erreur d’incompatibilité de version peut automatiquement désactiver la propagation de la configuration.

Puis-je modifier l’adresse NSIP ou le NSVLAN d’une appliance Citrix ADC lorsqu’elle fait partie du cluster ?

Non. Pour effectuer de telles modifications, vous devez d’abord supprimer l’appliance du cluster, effectuer les modifications, puis ajouter l’appliance au cluster.

Le cluster Citrix ADC prend-il en charge les VLAN L2 et L3 ?

Oui. Un cluster prend en charge les VLAN entre les nœuds de cluster. Les VLAN doivent être configurés sur l’adresse IP du cluster.

  • VLAN L2. Vous pouvez créer un VLAN de couche 2 en liant des interfaces appartenant à différents nœuds du cluster.
  • VLAN L3. Vous pouvez créer un VLAN de couche 3 en liant des adresses IP appartenant à différents nœuds du cluster. Les adresses IP doivent appartenir au même sous-réseau. Assurez-vous que l’un des critères suivants est satisfait. Sinon, les liaisons VLAN L3 peuvent échouer.

    • Tous les nœuds ont une adresse IP sur le même sous-réseau que celui lié au VLAN.
    • Le cluster a une adresse IP répartie et le sous-réseau de cette adresse IP est lié au VLAN.

Lorsque vous ajoutez un nouveau nœud à un cluster qui n’a que des adresses IP spotted, la synchronisation se produit avant que les adresses IP spotted ne soient affectées à ce nœud. Dans de tels cas, les liaisons VLAN L3 peuvent être perdues. Pour éviter cette perte, ajoutez une IP par répartition ou ajoutez les liaisons VLAN L3 sur le NSIP du nœud nouvellement ajouté.

Comment puis-je configurer SNMP sur un cluster Citrix ADC ?

SNMP surveille le cluster et tous les nœuds du cluster de la même manière qu’une appliance autonome. La seule différence est que SNMP sur un cluster doit être configuré via l’adresse IP du cluster. Lors de la génération d’interruptions spécifiques au matériel, deux varbinds supplémentaires sont inclus pour identifier le nœud du cluster : l’ID du nœud et l’adresse NSIP du nœud.

Quels détails dois-je disposer lorsque je contacte le support technique pour des problèmes liés au cluster ?

L’appliance Citrix ADC fournit une commande show techsupport -scope cluster qui extrait les données de configuration, les informations statistiques et les journaux de tous les nœuds de cluster. Vous devez exécuter cette commande sur l’adresse IP du cluster.

La sortie de cette commande est enregistrée dans un fichier nommé collector_cluster_<nsip_CCO>_P_<date-timestamp>.tar.gz qui est disponible dans le répertoire /var/tmp/support/cluster/ du coordinateur de configuration.

Envoyez cette archive à l’équipe de support technique pour déboguer le problème.

Puis-je utiliser des adresses IP par bandes comme Gateway par défaut des serveurs ?

Dans le cas de déploiements de cluster, assurez-vous que la Gateway par défaut du serveur pointe vers une adresse IP par répartition (si vous utilisez une adresse IP appartenant à Citrix ADC). Par exemple, dans le cas de déploiements LB avec USIP activé, la Gateway par défaut doit être une adresse SNIP striped.

Puis-je afficher les configurations de routage d’un nœud de cluster spécifique à partir de l’adresse IP du cluster ?

Oui. Vous pouvez afficher et effacer les configurations spécifiques à un nœud en spécifiant le nœud propriétaire lors de la saisie du shell vtysh.

Par exemple, pour afficher la sortie d’une commande sur les nœuds 0 et 1, la commande est la suivante :

\> vtysh
ns# owner-node 0 1
ns(node-0 1)\# show cluster state
ns(node-0 1)\# exit-cluster-node
ns\#

Comment puis-je spécifier le nœud pour lequel je veux définir la priorité système LACP ?

Remarque

Prise en charge à partir de NetScaler 10.1.

Dans un cluster, vous devez définir ce nœud comme nœud propriétaire à l’aide de la commande set lacp .

Par exemple : Pour définir la priorité système LACP pour le nœud avec l’ID 2 :

set lacp -sysPriority 5 -ownerNode 2

Comment les tunnels IP sont-ils configurés dans une configuration de cluster ?

Remarque

Prise en charge à partir de NetScaler 10.1.

La configuration des tunnels IP dans un cluster est identique à celle d’une appliance autonome. La seule différence est que dans une configuration de cluster, l’adresse IP locale doit être une adresse SNIP par bandes.

Comment puis-je ajouter un jeu d’interface de basculement (FIS) sur les nœuds d’un cluster Citrix ADC ?

Remarque

Prise en charge à partir de NetScaler 10.5.

Sur l’adresse IP du cluster, spécifiez l’ID du nœud du cluster sur lequel le FIS doit être ajouté, à l’aide de la commande suivante :

add fis <name> -ownerNode <nodeId>

Remarques

  • Le nom FIS de chaque nœud de cluster doit être unique.
  • Un canal LA de cluster peut être ajouté à un FIS. Vous devez vous assurer que le canal LA du cluster a une interface locale en tant qu’interface membre.

Pour en savoir plus sur la SIF, reportez-vous à la section Configuration du jeu d’interface de basculement.

Comment les profils réseau sont-ils configurés dans une configuration de cluster ?

Remarque

Prise en charge à partir de NetScaler 10.5.

Vous pouvez lier des adresses IP spotted à un profil net. Ce profil réseau peut ensuite être lié à un serveur virtuel ou un service d’équilibrage de charge spotted (défini à l’aide d’un groupe de nœuds). Les recommandations suivantes doivent être suivies, faute de quoi, les configurations de profil net ne sont pas respectées et les paramètres USIP/USNIP seront utilisés :

Remarque

  • Si le paramètre strict du groupe de nœuds est défini sur Oui, le profil net doit contenir au moins une adresse IP de chaque membre du groupe de nœuds.
  • Si le paramètre strict du groupe de nœuds est défini sur Non, le profil net doit inclure au moins une adresse IP de chacun des nœuds de cluster.

Comment puis-je configurer des WIonNS dans une configuration de cluster ?

Remarque

Prise en charge à partir de NetScaler 11.0 Build 62.x.

Pour utiliser des WIONsWIonNS sur un cluster, vous devez effectuer les opérations suivantes :

  1. Assurez-vous que le package Java et le package WI sont présents dans le même répertoire sur tous les nœuds de cluster.
  2. Créez un serveur virtuel d’équilibrage de charge dont la persistance est configurée.
  3. Créez des services avec des adresses IP comme adresse NSIP de chacun des nœuds de cluster que vous souhaitez servir le trafic WI. Cette étape ne peut être configurée qu’à l’aide de l’interface de ligne de commande Citrix ADC.
  4. Liez les services au serveur virtuel d’équilibrage de charge.

Remarque

Si vous utilisez WIonNS via une connexion VPN, assurez-vous que le serveur virtuel d’équilibrage de charge est défini comme WIHOME.

Le canal LA de cluster peut-il être utilisé pour l’accès à la gestion ?

Non. L’accès de gestion à un nœud de cluster ne doit pas être configuré sur un canal LA de cluster (par exemple, CLA/1) ou ses interfaces membres. En effet, lorsque le nœud est INACTIVE, l’interface LA du cluster correspondant est marquée comme mise hors tension et perd donc l’accès à la gestion.

Comment les nœuds de cluster communiquent entre eux et quels sont les différents types de trafic qui passe par le backplane ?

Un backplane est un ensemble d’interfaces dans lequel une interface de chaque nœud est connectée à un commutateur commun, appelé commutateur de backplane de cluster. Les différents types de trafic qui passe par backplane, qui est utilisé par la communication entre les nœuds sont :

  • Messagerie de noeud à noeud (NNM)
  • Circulation orientée
  • Propagation et synchronisation de la configuration

Chaque nœud du cluster utilise une adresse spéciale de commutateur de backplane de cluster MAC pour communiquer avec d’autres nœuds via le backplane. Le MAC spécial du cluster est de la forme suivante : 0x02 0x00 0x6F <cluster_id> <node_id> <reserved> où <cluster_id> est l’ID de l’instance de cluster, <node_id> correspond au numéro de nœud de l’appliance Citrix ADC ajoutée à un cluster.

Remarque

La quantité de trafic qui est gérée par un backplane aura une surcharge CPU négligeable.

Qu’est-ce qui est routé sur le tunnel GRE pour le cluster de couche 3 ?

Seul le trafic de données dirigé passe par le tunnel GRE. Les paquets sont dirigés par le tunnel GRE vers le nœud de l’autre sous-réseau.

Comment les messages NNM (messagerie nœud à nœud) et les pulsations de cœur sont échangés, et comment sont-ils routés ?

Le NNM, les messages de pulsation et le protocole de cluster sont du trafic non dirigé. Ces messages ne sont pas envoyés par le tunnel, mais ils sont acheminés directement.

Quelles sont les recommandations MTU lorsque les trames Jumbo sont activées pour le trafic en tunnel de cluster de couche 3 ?

Voici les recommandations de cluster de couche 3 de Jumbo MTU sur tunnel GRE :

  • Le MTU Jumbo peut être configuré entre les nœuds de cluster sur le chemin L3 pour prendre en charge la surcharge du tunnel GRE.
  • La fragmentation ne se produit pas pour les paquets de taille réelle qui doivent être dirigés.
  • La direction du trafic continue de fonctionner même si les cadres Jumbo ne sont pas autorisés, mais avec plus de frais généraux en raison de la fragmentation.

Comment la clé de hachage globale est générée et partagée sur tous les nœuds ?

La clé rsskey d’une appliance autonome est générée au moment du démarrage. Dans une configuration de cluster, le premier nœud contient la clé rsskey du cluster. Chaque nouveau nœud se joignant au cluster synchronisera la clé rsskey.

Quel est le besoin de la commande « set rsskeytype —rsskey symetric » pour *:*, USIP on, useproxyport off, topologies ?

Ceci n’est pas spécifique au cluster, s’applique également à une appliance autonome. Avec USIP ON, et utiliser le port proxy désactivé, la clé rsskey symétrique réduit à la fois la direction Core to Core (C2C) et la direction nœud à nœud.

Questions fréquentes

Dans cet article