Citrix ADC

Configuration de la communication entre les nœuds

Les nœuds d’une configuration de cluster communiquent entre eux à l’aide des mécanismes de communication inter-nœuds suivants :

  • Les nœuds qui se trouvent dans le réseau (même sous-réseau) communiquent entre eux via le backplane du cluster. Le backplane doit être explicitement configuré. Voici les étapes détaillées.
  • À travers les réseaux, la direction des paquets se fait via un tunnel GRE et d’autres communications de noeud à noeud sont acheminées entre les noeuds selon les besoins.

Important

  • À partir de la version 11.0 de toutes les versions, un cluster peut inclure des nœuds provenant de différents réseaux.
  • À partir de la version 13.0 build 58.3, la direction GRE est prise en charge sur les cartes réseau Fortville dans un cluster L3.

Pour configurer le backplane du cluster, procédez comme suit pour chaque nœud

  1. Identifiez l’interface réseau que vous souhaitez utiliser pour le backplane.
  2. Connectez un câble Ethernet ou optique à partir de l’interface réseau sélectionnée au commutateur de backplane de cluster.

Par exemple, pour utiliser l’interface 1/2 comme interface de backplane pour le nœud 4, connectez un câble de l’interface 1/2 du nœud 4 au commutateur de backplane.

Points importants à noter lors de la configuration du backplane du cluster

  • N’utilisez pas l’interface de gestion de l’appliance (0/x) comme interface de backplane. Dans un cluster, l’interface 0/1/x est lue comme suit :

    0 -> ID de nœud 0 1/x -> Interface de Citrix ADC

  • N’utilisez pas les interfaces de fond de panier pour les plans de données client ou serveur.

  • Configurez un canal d’agrégat de liaison (LA) pour optimiser le débit du backplane du cluster.

  • Dans un cluster à deux nœuds, où le fond de panier est connecté dos à dos, le cluster est opérationnel DOWN dans l’une des conditions suivantes :

    • L’un des nœuds est redémarré.
    • L’interface de fond de panier de l’un des nœuds est désactivée.

    Par conséquent, Citrix vous recommande de dédier un commutateur distinct pour le fond de panier, afin que l’autre nœud de cluster et le trafic ne soient pas affectés. Vous ne pouvez pas mettre à l’échelle le cluster à l’aide d’un lien back-to-back. Vous pouvez rencontrer un temps d’arrêt dans l’environnement de production lorsque vous mettez à l’échelle les nœuds de cluster.

  • Les interfaces de backplane de tous les nœuds d’un cluster doivent être connectées au même commutateur et liées au même VLAN L2.

  • Si vous avez plusieurs clusters avec le même ID d’instance de cluster, assurez-vous que les interfaces de backplane de chaque cluster sont liées à un VLAN différent.

  • L’interface du backplane est toujours surveillée, quels que soient les paramètres de surveillance HA de cette interface.

  • L’état de l’usurpation MAC sur les différentes plates-formes de virtualisation peut affecter le mécanisme de direction sur le backplane du cluster. Par conséquent, assurez-vous que l’état approprié est configuré :

    • XenServer - Désactiver l’usurpation MAC
    • Hyper-V - Activer l’usurpation MAC
    • VMware ESX - Activer l’usurpation MAC (assurez-vous également que « Transmissions forgées » est activé)
  • Le MTU du backplane du cluster est automatiquement mis à jour. Toutefois, si des trames jumbo sont configurées sur le cluster, le MTU du backplane du cluster doit être explicitement configuré. La valeur doit être définie sur 78 + X, X étant la MTU maximale des plans de données client et serveur. Par exemple, si la MTU d’un plan de données serveur est 7500 et du plan de données client 8922. Le MTU d’un fond de panier de cluster doit être défini sur 78 + 8922 = 9000. Pour définir ce MTU, utilisez la commande suivante :

    > set interface <backplane_interface> -mtu <value>

  • Le MTU des interfaces du commutateur de fond de panier doit être spécifié pour être supérieur ou égal à 1 578 octets. Elle s’applique si le cluster possède des fonctionnalités telles que MBF, stratégies L2, ACL, routage dans les déploiements CLAG et vPath.

Prise en charge du tunnel basé sur UDP pour les clusters L2 et L3

À partir de Citrix ADC version 13.0 build 36.x, Citrix ADC L2 et L3 cluster peut diriger le trafic à l’aide d’un tunneling basé sur UDP. Il est défini pour les communications inter-nœuds de deux nœuds dans un cluster. En utilisant le paramètre « tunnelmode », vous pouvez définir le mode tunnel GRE ou UDP à partir de la commande add and set cluster node.

Dans un déploiement de cluster L3, les paquets entre les nœuds Citrix ADC sont échangés sur un tunnel GRE non chiffré qui utilise les adresses NSIP des nœuds source et destination pour le routage. Lorsque cet échange se produit sur Internet, en l’absence d’un tunnel IPSec, les NSIP sont exposés sur Internet et peuvent entraîner des problèmes de sécurité.

Important

Citrix recommande aux clients d’établir leur propre solution IPSec lors de l’utilisation d’un cluster L3.

Le tableau suivant vous aide à classer la prise en charge du tunnel en fonction de différents déploiements.

Types de direction AWS Microsoft Azure Local
MAC Non pris en charge Non pris en charge Pris en charge
Tunnel du GRE Pris en charge Non pris en charge Pris en charge
Tunnel UDP Pris en charge Pris en charge Pris en charge

Important

Dans un cluster L3, le mode tunnel est défini sur GRE par défaut.

Configuration d’un tunnel basé sur UDP

Vous pouvez ajouter un nœud de cluster en définissant les paramètres de l’ID de nœud et en mentionnant l’état. Configurez le fond de panier en fournissant le nom de l’interface et sélectionnez le mode tunnel de votre choix (GRE ou UDP).

Procédures CLI

Pour activer le mode tunnel UDP à l’aide de l’interface de ligne de commande.

À l’invite de commandes, tapez :

  • add cluster node <nodeId>@ [-state <state>] [-backplane <interface_name>] [-tunnelmode <tunnelmode>]
  • set cluster node <nodeId>@ [-state <state>] [-tunnelmode <tunnelmode>]

Remarque

Les valeurs possibles pour le mode tunnel sont NONE, GRE, UDP.

Exemple

  • add cluster node 1 –state ACTIVE –backplane 1/1/1 -tunnelmode UDP
  • set cluster node 1 –state ACTIVE –tunnelmode UDP

Procédures GUI

Pour activer le mode tunnel UDP à l’aide de l’interface graphique.

  1. Accédez à Système > Cluster > Noeuds.

  2. Dans la page Nœuds de cluster, cliquez sur Ajouter.

  3. Dans le nœud de cluster Create, définissez le paramètre Mode tunnel sur UDP et cliquez sur Créer.

    Créer un nœud de cluster

  4. Cliquez sur Fermer.

Configuration de la communication entre les nœuds