Migration d’une configuration HA vers une configuration de cluster

Pour migrer une installation de haute disponibilité (HA) existante vers une installation de cluster, vous devez d’abord supprimer les appliances Citrix ADC de la configuration de haute disponibilité et créer une sauvegarde du fichier de configuration de haute disponibilité. Vous devez ensuite utiliser les deux appliances pour créer un cluster et charger le fichier de configuration sauvegardé sur le cluster.

Remarque

  • Avant de charger le fichier de configuration HA sauvegardé sur le cluster, vous devez le modifier pour le rendre compatible avec le cluster. Reportez-vous à l’étape pertinente de la procédure ci-dessous.
  • Utilisez la batch -f <backup_filename> pour télécharger le fichier de configuration sauvegardé.

L’approche ci-dessus est une solution de migration très basique qui entraîne des temps d’arrêt pour l’application déployée. En tant que tel, il ne doit être utilisé que dans les déploiements où la disponibilité des applications n’est pas prise en compte.

Cependant, dans la plupart des déploiements, la disponibilité de l’application est d’une importance primordiale. Dans de tels cas, vous devez utiliser l’approche qui permet de migrer une configuration HA vers une configuration de cluster sans aucun temps d’arrêt. Dans cette approche, une configuration HA existante est migrée vers une configuration de cluster en supprimant d’abord l’appliance secondaire et en utilisant cette solution pour créer un cluster à nœud unique. Une fois que le cluster devient opérationnel et sert le trafic, l’appliance principale de la configuration HA est ajoutée au cluster.

Pour convertir une configuration HA en configuration de cluster (sans temps d’arrêt) à l’aide de l’interface de ligne de commande

Considérons l’exemple d’une installation HA avec l’appliance primaire (NS1) - 10.102.97.131 et l’appliance secondaire (NS2) - 10.102.97.132.

  1. Assurez-vous que les configurations de la paire HA sont stables.

  2. Connectez-vous à l’une des appliances HA, accédez au shell et créez une copie du fichier ns.conf (par exemple, ns_backup.conf).

  3. Ouvrez une session sur l’appliance secondaire, NS2, et effacez les configurations. Cette opération supprime NS2 de la configuration HA et en fait une appliance autonome.

    > clear ns config full
    

    Remarque

    • Cette étape est requise pour vous assurer que NS2 ne commence pas à posséder des adresses VIP, maintenant qu’il s’agit d’une appliance autonome.
    • À ce stade, l’appliance principale, NS1, est toujours active et continue de servir le trafic.
  4. Créez un cluster sur NS2 (désormais un dispositif secondaire) et configurez-le en tant que nœud PASSIF.

     > add cluster instance 1
    
     > add cluster node 0 10.102.97.132 -state PASSIVE -backplane 0/1/1
    
     > add ns ip 10.102.97.133 255.255.255.255 -type CLIP
    
     > enable cluster instance 1
    
     > save ns config
    
     > reboot -warm
    
  5. Modifiez le fichier de configuration sauvegardé comme suit :

    • Supprimez les entités qui ne sont pas prises en charge sur un cluster. Pour obtenir la liste des fonctionnalités non prises en charge, reportez-vous à la section Fonctionnalités de Citrix ADC prises en charge par un cluster. Il s’agit d’une étape facultative. Si vous n’effectuez pas cette étape, l’exécution des commandes non prises en charge échouera.

    • Supprimez les configurations qui ont des interfaces ou mettez à jour les noms d’interface de la convention c/u vers la convention n/c/u .

      Exemple

       > add vlan 10 -ifnum 0/1
      

      devrait être remplacé par

       > add vlan 10 -ifnum 0/0/1 1/0/1
      
    • Le fichier de configuration de sauvegarde peut avoir des adresses SNIP ou MIP. Ces adresses sont striped sur tous les nœuds de cluster. Il est recommandé d’ajouter des adresses IP spotted pour chaque nœud.

      Exemple

       > add ns ip 1.1.1.1 255.255.255.0 -ownerNode 0
      
       > add ns ip 1.1.1.2 255.255.255.0 -ownerNode 1
      
    • Mettez à jour le nom d’hôte pour spécifier le nœud propriétaire.

      Exemple

       > set ns hostname ns0 -ownerNode 0
      
       > set ns hostname ns1 -ownerNode 1
      
    • Modifiez toutes les autres configurations réseau pertinentes qui dépendent des adresses IP spotted. Par exemple, L3 VLAN, configuration RNAT qui utilise SNIP comme NATIP, règles INAT qui fait référence aux SNIP/MIPS).

  6. Sur le cluster, procédez comme suit :

    • Apportez les modifications topologiques au cluster en connectant le backplane du cluster, le canal d’agrégation des liens du cluster, etc.

    • Appliquez les configurations du fichier de configuration sauvegardé et modifié au coordinateur de configuration via l’adresse IP du cluster.

       > batch -f ns_backup.conf
      
    • Configurez des mécanismes de distribution du trafic externe tels que ECMP ou l’agrégation de liens de cluster.

  7. Basculez le trafic de la configuration HA vers le cluster.

    • Ouvrez une session sur l’appliance principale, NS1, et désactivez toutes les interfaces qui s’y trouve.

       > disable interface <interface_id>
      
    • Ouvrez une session sur l’adresse IP du cluster et configurez NS2 en tant que nœud ACTIVE.

       > set cluster node 0 -state ACTIVE
      

    Remarque

    Il peut y avoir une petite quantité (de l’ordre de secondes) de temps d’arrêt entre la désactivation des interfaces et l’activation du nœud de cluster.

  8. Ouvrez une session sur l’appliance principale, NS1, et supprimez-la de la configuration HA.

    • Effacez toutes les configurations. Cette opération supprime NS1 de la configuration HA et en fait une appliance autonome.

       > clear ns config full
      
    • Activez toutes les interfaces.

       > enable interface <interface_id>
      
  9. Ajoutez NS1 au cluster.

    • Ouvrez une session sur l’adresse IP du cluster et ajoutez NS1 au cluster.

       > add cluster node 1 10.102.97.131 -state PASSIVE -backplane 1/1/1
      
    • Connectez-vous à NS1 et rejoignez-le au cluster en exécutant séquentiellement les commandes suivantes :

       > join cluster -clip 10.102.97.133 -password nsroot
      
       > save ns config
      
       > reboot -warm
      
  10. Ouvrez une session sur NS1 et effectuez les modifications de topologie et de configuration requises.

  11. Connectez-vous à l’adresse IP du cluster et définissez NS1 comme nœud ACTIVE.

        > set cluster node 1 -state ACTIVE