-
-
Configuration de Citrix ADC pour Citrix Virtual Apps and Desktops
-
Préférence de zone optimisée pour l'équilibrage de la charge du serveur global (GSLB)
-
Déploiement d'une plateforme de publicité numérique sur AWS avec Citrix ADC
-
Amélioration de l'analyse des flux de clics dans AWS à l'aide de Citrix ADC
-
Citrix ADC dans un cloud privé géré par Microsoft Windows Azure Pack et Cisco ACI
-
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Installer une instance Citrix ADC VPX sur le cloud VMware sur AWS
-
Installer une instance Citrix ADC VPX sur des serveurs Microsoft Hyper-V
-
Installer une instance Citrix ADC VPX sur la plate-forme Linux-KVM
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide d'OpenStack
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide de Virtual Machine Manager
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau SR-IOV
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau PCI
-
Provisioning de l'appliance virtuelle Citrix ADC à l'aide du programme virsh
-
Provisioning de l'appliance virtuelle Citrix ADC avec SR-IOV, sur OpenStack
-
Configuration d'une instance Citrix ADC VPX sur KVM pour utiliser les interfaces hôtes OVS DPDK
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Serveurs d'équilibrage de charge dans différentes zones de disponibilité
-
Haute disponibilité dans toutes les zones de disponibilité AWS
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées dans différentes zones AWS
-
Ajout d'un service de mise à l'échelle automatique AWS back-end
-
Configurer une instance Citrix ADC VPX pour utiliser l'interface réseau SR-IOV
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau améliorée avec AWS ENA
-
Déployer une instance de Citrix ADC VPX sur Microsoft Azure
-
Architecture réseau pour les instances Citrix ADC VPX sur Microsoft Azure
-
Configurer plusieurs adresses IP pour une instance autonome Citrix ADC VPX
-
Configurer une configuration haute disponibilité avec plusieurs adresses IP et cartes réseau
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau accélérée Azure
-
Configurer les nœuds HA-INC à l'aide du modèle de haute disponibilité Citrix avec Azure ILB
-
Ajouter des paramètres de mise à l'échelle automatique Azure
-
Configurer GSLB sur une configuration haute disponibilité active en veille
-
Configurer des pools d'adresses (IIP) pour une appliance Citrix Gateway
-
Scripts PowerShell supplémentaires pour le déploiement Azure
-
Déployer une instance Citrix ADC VPX sur Google Cloud Platform
-
Déployer une paire haute disponibilité VPX sur Google Cloud Platform
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées sur Google Cloud Platform
-
Ajouter un service de mise à l'échelle automatique GCP back-end
-
Prise en charge de la mise à l'échelle VIP pour l'instance Citrix ADC VPX sur GCP
-
-
Automatiser le déploiement et les configurations de Citrix ADC
-
Solutions pour les fournisseurs de services de télécommunication
-
Trafic de plan de contrôle d'équilibrage de charge basé sur les protocoles Diameter, SIP et SMPP
-
Utilisation de la bande passante à l'aide de la fonctionnalité de redirection de cache
-
Optimisation TCP de Citrix ADC
-
Authentification, autorisation et audit du trafic des applications
-
Fonctionnement de l'authentification, de l'autorisation et de l'audit
-
Composants de base de la configuration d'authentification, d'autorisation et d'audit
-
Autorisation de l'accès des utilisateurs aux ressources applicatives
-
Citrix ADC en tant que proxy du service de fédération Active Directory
-
Citrix Gateway sur site en tant que fournisseur d'identité pour Citrix Cloud
-
Prise en charge de la configuration de l'attribut de cookie SameSite
-
Configuration d'authentification, d'autorisation et d'audit pour les protocoles couramment utilisés
-
Résoudre les problèmes liés à l'authentification et à l'autorisation
-
-
-
Prise en charge de la configuration Citrix ADC dans la partition d'administration
-
Prise en charge de VXLAN pour les partitions d'administration
-
Prise en charge de SNMP pour les partitions d'administration
-
Prise en charge des journaux d'audit pour les partitions d'administration
-
Afficher les adresses PMAC configurées pour la configuration VLAN partagée
-
-
-
-
Configuration de l'expression de stratégie avancée : Mise en route
-
Expressions de stratégie avancées : utilisation de dates, d'heures et de nombres
-
Expressions de stratégie avancées : analyse des données HTTP, TCP et UDP
-
Expressions de stratégie avancées : analyse des certificats SSL
-
Expressions de stratégie avancées : adresses IP et MAC, débit, ID VLAN
-
Expressions de stratégie avancées : fonctions d'analyse de flux
-
Référence aux expressions - Expressions de stratégie avancées
-
Résumé d'exemples d'expressions et de stratégies de syntaxe par défaut
-
Didacticiel exemples de stratégies de syntaxe par défaut pour la réécriture
-
Migration des règles Apache mod_rewrite vers la syntaxe par défaut
-
-
-
Traduire l'adresse IP de destination d'une requête vers l'adresse IP d'origine
-
-
Prise en charge de la configuration de Citrix ADC dans un cluster
-
-
-
Groupes de nœuds pour les configurations spotted et striped partielles
-
Suppression du nœud d'un cluster déployé à l'aide de l'agrégation de liens de cluster
-
Surveillance des itinéraires pour les itinéraires dynamiques dans le cluster
-
Surveillance de la configuration du cluster à l'aide de MIB SNMP avec liaison SNMP
-
Surveillance des échecs de propagation des commandes dans un déploiement de cluster
-
Prise en charge de MSR pour les nœuds inactifs dans une configuration de cluster spotted
-
Liaison d'interface VRRP dans un cluster actif à nœud unique
-
Scénarios de configuration et d'utilisation du cluster
-
Migration d'une configuration HA vers une configuration de cluster
-
Interfaces communes pour le client et le serveur et interfaces dédiées pour le backplane
-
Commutateur commun pour le client, le serveur et le backplane
-
Commutateur commun pour le client et le serveur et commutateur dédié pour le backplane
-
Services de surveillance dans un cluster à l'aide de la surveillance des chemins
-
Opérations prises en charge sur des nœuds de cluster individuels
-
-
-
Configurer les enregistrements de ressources DNS
-
Créer des enregistrements MX pour un serveur d'échange de messagerie
-
Créer des enregistrements NS pour un serveur faisant autorité
-
Créer des enregistrements NAPTR pour le domaine des télécommunications
-
Créer des enregistrements PTR pour les adresses IPv4 et IPv6
-
Créer des enregistrements SOA pour les informations faisant autorité
-
Créer des enregistrements TXT pour contenir du texte descriptif
-
Configurer Citrix ADC en tant que résolveur de stub adapté à la sécurité sans validation
-
Prise en charge des trames Jumbo pour DNS pour gérer les réponses de grandes tailles
-
Configurer la mise en cache négative des enregistrements DNS
-
-
Équilibrage de charge globale des serveurs
-
Configurer les entités GSLB individuellement
-
Cas d'utilisation : Déploiement d'un groupe de services d'échelle automatique basé sur l'adresse IP
-
-
Remplacer le comportement de proximité statique en configurant les emplacements préférés
-
Configurer la sélection du service GSLB à l'aide du changement de contenu
-
Configurer GSLB pour les requêtes DNS avec les enregistrements NAPTR
-
Exemple de configuration parent-enfant complète à l'aide du protocole d'échange de mesures
-
-
Équilibrer la charge du serveur virtuel et des états de service
-
Protéger une configuration d'équilibrage de charge contre les défaillances
-
-
Configurer des serveurs virtuels d'équilibrage de charge sans session
-
Réécriture des ports et des protocoles pour la redirection HTTP
-
Insérer l'adresse IP et le port d'un serveur virtuel dans l'en-tête de requête
-
Utiliser une adresse IP source spécifiée pour la communication backend
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Utiliser un port source à partir d'une plage de ports spécifiée pour la communication backend
-
Configurer la persistance de l'IP source pour les communications backend
-
-
Paramètres avancés d'équilibrage de charge
-
Protéger les applications sur les serveurs protégés contre les surtensions de trafic
-
Activer le nettoyage des connexions de serveur virtuel et de service
-
Activer ou désactiver la session de persistance sur les services TROFS
-
Activer la vérification de l'état TCP externe pour les serveurs virtuels UDP
-
Maintenir la connexion client pour plusieurs demandes client
-
Utiliser l'adresse IP source du client lors de la connexion au serveur
-
Définir une limite de nombre de requêtes par connexion au serveur
-
Définir une valeur de seuil pour les moniteurs liés à un service
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Définir une valeur de délai d'attente pour les connexions au serveur inactif
-
Définir une limite sur l'utilisation de la bande passante par les clients
-
Configurer les moniteurs dans une configuration d'équilibrage de charge
-
Configurer l'équilibrage de charge pour les protocoles couramment utilisés
-
Cas d'utilisation 3 : Configurer l'équilibrage de charge en mode de retour direct du serveur
-
Cas d'utilisation 4 : Configurer les serveurs LINUX en mode DSR
-
Cas d'utilisation 5 : Configurer le mode DSR lors de l'utilisation de TOS
-
Cas d'utilisation 7 : Configurer l'équilibrage de charge en mode DSR à l'aide d'IP sur IP
-
Cas d'utilisation 8 : Configurer l'équilibrage de charge en mode à un bras
-
Cas d'utilisation 9 : Configurer l'équilibrage de charge en mode Inline
-
Cas d'utilisation 10 : Équilibrage de la charge des serveurs du système de détection d'intrusion
-
Cas d'utilisation 11 : Isolation du trafic réseau à l'aide de stratégies d'écoute
-
Cas d'utilisation 12 : Configurer XenDesktop pour l'équilibrage de charge
-
Cas d'utilisation 13 : Configurer XenApp pour l'équilibrage de charge
-
Cas d'utilisation 14 : Assistant ShareFile pour l'équilibrage de charge Citrix ShareFile
-
-
Configurer pour source de trafic de données Citrix ADC FreeBSD à partir d'une adresse SNIP
-
Déchargement et accélération SSL
-
Prise en charge du protocole TLSv1.3 tel que défini dans la RFC 8446
-
Suites de chiffrement disponibles sur les appliances Citrix ADC
-
Matrice de prise en charge des certificats de serveur sur l'appliance ADC
-
Prise en charge du module de sécurité matérielle du réseau Gemalto SafeNet
-
-
-
-
Authentification et autorisation pour les utilisateurs du système
-
Configuration des utilisateurs, des groupes d'utilisateurs et des stratégies de commande
-
Réinitialisation du mot de passe administrateur par défaut (nsroot)
-
Configuration de l'authentification des utilisateurs externes
-
Authentification basée sur la clé SSH pour les administrateurs Citrix ADC
-
Authentification à deux facteurs pour les utilisateurs système
-
-
-
Configuration d'un tunnel de connecteur CloudBridge entre deux centres de données
-
Configuration de CloudBridge Connector entre Datacenter et AWS Cloud
-
Configuration d'un tunnel de connecteur CloudBridge entre un centre de données et Azure Cloud
-
Configuration du tunnel Connector CloudBridge entre Datacenter et SoftLayer Enterprise Cloud
-
-
Points à prendre en considération pour une configuration de haute disponibilité
-
Restriction du trafic de synchronisation haute disponibilité à un VLAN
-
Configuration des nœuds haute disponibilité dans différents sous-réseaux
-
Limitation des basculements causés par les moniteurs de routage en mode non-INC
-
Comprendre le calcul de la vérification de l'état de haute disponibilité
-
Gestion des messages de pulsation haute disponibilité sur une appliance Citrix ADC
-
Suppression et remplacement d'un Citrix ADC dans une configuration haute disponibilité
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Configuration de la mise en cluster de couche 3
Comprendre le cluster L3
La demande d’étendre le déploiement à haute disponibilité et d’augmenter l’évolutivité du trafic client sur différents réseaux guidés pour établir le cluster L3. Le cluster L3 vous permet de regrouper les appliances Citrix ADC sur des sous-réseaux individuels (cluster L2).
Le cluster L3 est également appelé « cluster en mode INC (Independent Network Configuration) ». Dans le déploiement de cluster L3, les nœuds de cluster du même réseau sont regroupés pour former un groupe de nœuds. Le cluster L3 utilise le tunneling GRE pour diriger les paquets sur les réseaux. Les messages de pulsation dans les clusters L3 sont routés.
Ce document comprend les détails suivants :
- Architecture
- Exemple
Architecture
L’architecture de cluster L3 comprend les composants suivants :
-
Groupe de nœuds. Les nœuds de cluster de chaque réseau (n1, n2) et (n3, n4), comme illustré dans la figure suivante, sont regroupés pour former un groupe de nœuds. Ces groupes de nœuds sont terminés au commutateur de couche 3 de chaque côté du réseau.
- Le cluster communique avec le client via les connexions physiques entre le nœud de cluster et le périphérique de connexion côté client. Le regroupement logique de ces connexions physiques est appelé plan de données client.
- Le cluster communique avec le serveur via les connexions physiques entre le nœud de cluster et le périphérique de connexion côté serveur. Le regroupement logique de ces connexions physiques est appelé plan de données du serveur.
- Commutateur de backplane. Les nœuds de cluster du même réseau communiquent entre eux à l’aide du backplane du cluster. Le backplane est un ensemble d’interfaces dans lesquelles une interface de chaque nœud est connectée à un commutateur commun, appelé commutateur de backplane de cluster.
- Tunnel GRE. Les paquets entre les nœuds d’un cluster L3 sont échangés sur un tunnel GRE non chiffré qui utilise les adresses NSIP des nœuds source et destination pour le routage. Le mécanisme de direction change pour les nœuds appartenant aux différents réseaux. Les paquets sont dirigés par un tunnel GRE vers le nœud sur l’autre sous-réseau, au lieu de réécrire le MAC.
Exemple
Prenons un exemple de déploiement de cluster L3 composé des éléments suivants :
- Trois appliances Citrix ADC (n1, n2 et n3) nœuds sont regroupés dans Nodegroup1.
- De même, les nœuds n4 et n5 sont regroupés dans Nodegroup2. Dans le troisième réseau, il y a deux groupes de nœuds. Nodegroup3 inclut n6 et n7 et Nodegroup4 inclut n8 et n9.
- Les appliances Citrix ADC qui appartiennent au même réseau sont combinées pour former un groupe de nœuds.
Points à prendre en compte avant de configurer le cluster L3
Tenez compte des points suivants avant de configurer le cluster L3 sur une appliance Citrix ADC :
- Le backplane n’est pas obligatoire lors de la configuration des sous-réseaux L3. Si le fond de panier n’est pas spécifié, le nœud ne passe pas à l’état d’échec du fond de panier.
Remarque
Si vous avez plusieurs nœuds dans le même réseau L2, il est obligatoire de définir l’interface du fond de panier. Si l’interface du fond de panier n’est pas mentionnée, les nœuds passent à l’état d’échec du fond de panier.
-
Les fonctionnalités L2 et les SNIP par répartition ne sont pas pris en charge dans le cluster L3.
- La distribution du trafic externe dans le cluster L3 prend uniquement en charge le chemin ECMP (Equal Cost Multiple Path).
- Les erreurs ICMP et la fragmentation ne sont pas traitées lorsque la direction est désactivée dans un déploiement de cluster L3 :
- Les entités réseau (
route, route6, pbr
etpbr6
) doivent être liées au groupe de nœuds de configuration. - VLAN, RNAT et le tunnel IP ne peuvent pas être liés à un groupe de nœuds de configuration.
- Le groupe de nœuds de configuration doit toujours avoir la propriété STRICT “YES.
- Les nœuds de cluster ne doivent pas être ajoutés à un groupe de nœuds de configuration via la commande « add cluster node ».
- La commande
add cluster instance -INC enabled
efface les entités réseau (route, route6, PBR, pb6, RNAT, tunnel IP, ip6tunnel). - La commande
clear config extended+
ne prend pas en charge les entités (route, route6, PBR, pb6, RNAT, tunnel IP, ip6tunnel) dans un cluster L3.
Configuration d’un cluster L3
Dans une configuration de cluster L3, la commande cluster a différents attributs à configurer qui sont basés sur les nœuds et les groupes de nœuds. La configuration du cluster L3 inclut également un profil IPv6 en dehors des profils IPv4.
La configuration du cluster L3 sur une appliance Citrix ADC comporte les tâches suivantes :
- Créer une instance de cluster
- Créer un groupe de nœuds dans un cluster L3
- Ajouter une appliance Citrix ADC au cluster et au groupe avec groupe de nœuds
- Ajouter une adresse IP de cluster au nœud
- Activer l’instance de cluster
- Enregistrer la configuration
- Ajouter un nœud à un groupe de nœuds existant
- Créer un groupe de nœuds dans un cluster L3
- Regrouper les nouveaux nœuds au groupe de nœuds nouvellement créé
- Joindre le nœud au cluster
Configuration des éléments suivants à l’aide de l’interface de ligne de commande
-
Pour créer une instance de cluster
add cluster instance <clid> -inc (<ENABLED|DISABLED>) [-processLocal <ENABLED | DISABLED]
-
Pour créer un groupe de nœuds dans un cluster L3
add cluster nodegroup <name>
-
Pour ajouter une appliance Citrix ADC au cluster et associer à un groupe de nœuds
add cluster node <nodeid> <nodeip> -backplane <interface_name> node group <ng>
-
Pour ajouter l’adresse IP du cluster sur ce nœud
add ns ip <IPAddress> <netmask> -type clip
-
Activer l’instance de cluster
enable cluster instance <clId>
-
Enregistrer la configuration
save ns config
-
Redémarrage à chaud de l’appliance
reboot -warm
-
Pour ajouter un nouveau nœud à un groupe de nœuds existant
add cluster node <nodeid> <nodeip> -nodegroup <ng>
-
Pour créer un groupe de nœuds dans un cluster L3
add cluster nodegroup <ng>
-
Pour regrouper de nouveaux nœuds vers le groupe de nœuds nouvellement créé
add cluster node <nodeid> <nodeip> -nodegroup <ng>
-
Pour joindre le nœud au cluster
join cluster –clip <ip_addr> -password <password>
add cluster instance 1 –inc ENABLED –processLocal ENABLED
Done
Remarque
Le paramètre « inc » doit être ENABLED pour un cluster L3.
add cluster nodegroup ng1
Done
> add cluster node 0 1.1.1.1 –state ACTIVE -backplane 0/1/1 –nodegroup ng1
Done
> add ns ip 1.1.1.100 255.255.255.255 –type clip
Done
> enable cluster instance 1
Done
> save ns config
Done
> add cluster node 1 1.1.1.2 –state ACTIVE –nodegroup ng1
Done
> add cluster nodegroup ng2
Done
> add cluster node 4 2.2.2.1 –state ACTIVE –nodegroup ng2
Done
> add cluster node 5 2.2.2.2 –state ACTIVE –nodegroup ng2
Done
> join cluster -clip 1.1.1.100 -password nsroot
Adresse IP du cluster publicitaire d’un cluster L3
Configurez l’adresse IP du cluster à publier sur le routeur amont pour rendre la configuration du cluster accessible à partir de n’importe quel sous-réseau.L’adresse IP du cluster est annoncée en tant que route du noyau par les protocoles de routage dynamique configurés sur un nœud.
La publicité de l’adresse IP du cluster comprend les tâches suivantes :
- Activez l’option de routage de l’hôte de l’adresse IP du cluster.L’option de route de l’hôte transmet l’adresse IP du cluster vers une table de routage ZeBOS pour la redistribution des routes du noyau via des protocoles de routage dynamiques.
- Configuration d’un protocole de routage dynamique sur un nœud.Un protocole de routage dynamique annonce l’adresse IP du cluster au routeur amont. Pour plus d’informations sur la configuration d’un protocole de routage dynamique, reportez-vous à la sectionConfiguration d’itinéraires dynamiques.
Pour activer l’option de routage hôte de l’adresse IP du cluster à l’aide de l’interface de ligne de commande
À l’invite de commandes, tapez :
- add nsip <IPAddress> <netmask> -hostRoute ENABLED
- show nsip <IPAddress>
> add ns ip 10.102.29.60 255.255.255.255 -hostRoute ENABLED
Done
Configurations spotted et striped partielles sur un cluster L3
Les configurations ponctuées et partiellement entrelacées sur le cluster L3 diffèrent légèrement de celles du cluster L2. La configuration peut différer d’un nœud à l’autre car les nœuds résident sur des sous-réseaux différents. Les configurations réseau peuvent être spécifiques à un nœud dans le cluster L3. Par conséquent, vous devez configurer les configurations ponctuelles ou partiellement rayées en fonction des paramètres mentionnés ci-dessous.
Pour configurer des configurations ponctuées et partiellement répartie sur une appliance Citrix ADC sur le cluster L3, effectuez les tâches suivantes :
- Ajouter un groupe de propriétaires de cluster à une table de routage statique IPv4
- Ajouter un groupe de propriétaires de cluster à une table de routage statique IPv6
- Ajouter un groupe de propriétaires de cluster à un routage basé sur une stratégie IPv4
- Ajouter un groupe de propriétaires de cluster à un PBR IPv6
- Ajouter un VLAN
- Lier un VLAN à un groupe de propriétaires spécifique du groupe de nœuds de cluster
Configuration des éléments suivants à l’aide de l’interface de ligne de commande
-
Pour ajouter un groupe de propriétaires de cluster à une table de routage statique IPv4 de l’appliance Citrix ADC
add route <network> <netmask> <gateway> -owner group <ng>
-
Pour ajouter un groupe propriétaire de cluster à une table de routage statique IPv6 de l’appliance Citrix ADC
add route6 <network> -owner group <ng>
-
Pour ajouter un groupe de propriétaires de cluster à un PBR IPv4
add pbr <name> <action> -owner group <ng>
-
Pour ajouter un groupe propriétaire de cluster à un PBR IPv6
add pbr6 <name> <action> -owner group <ng>
-
Pour ajouter un VLAN
add vlan <id>
-
Pour lier un VLAN à un groupe propriétaire spécifique de groupe de nœuds de cluster
bind vlan <id> -ifnum – [IPAddress <ip_addr | ipv6_addr> [-owner group <ng>]
Les commandes suivantes sont des exemples de configurations ponctuelles et partiellement rayées qui peuvent être configurées à l’aide de l’interface de ligne de commande.
> add route 10.102.29.0 255.255.255.0 10.102.29.2 –ownergroup ng2
Done
> add route6 fe80::9404:60ff:fedd:a464/64 –ownergroup ng1
Done
> add pbr pbr1 allow –ownergroup ng1
Done
> add pbr6 pbr2 allow –ownergroup ng2
Done
> add vlan 2
Done
> bind vlan 2 –ifnum 1/2 –[IPAddress 10.102.29.80 | fe80::9404:60ff:fedd:a464/64-ownergroup ng1
Done
Configuration du groupe de nœuds
Dans un cluster L3, pour répliquer le même ensemble de configurations sur plusieurs groupes de nœuds, les commandes suivantes sont utilisées :
Configuration des éléments suivants à l’aide de l’interface de commande
-
Pour ajouter une route statique IPv4 à la table de routage de l’appliance Citrix ADC
add route <network> <netmask> <gateway> -ownerGroup <ng>
Exemple de configuration :
add route 0 0 10.102.53.1 –ownerGroup ng1
add route 0 0 10.102.53.1 –ownerGroup ng2
Vous définissez un nouveau groupe de nœuds ‘all’ pour prendre en charge la configuration précédente, et vous devez configurer les commandes suivantes :
Configuration des éléments suivants à l’aide de l’interface de ligne de commande
-
Pour ajouter un nouveau groupe de nœuds à un cluster avec un paramètre strict
add cluster node group <name> -strict <YES | NO>
-
Pour lier un nœud de cluster ou une entité au groupe de nœuds donné
bind cluster nodegroup <name> -node <nodeid>
-
Pour ajouter une route statique IPv4 à tous les ownergroup
add route <network> <netmask> <gateway> -ownerGroup <ng>
Exemple de configuration :
add cluster nodegroup all –strict YES
bind cluster nodegroup all –node 1
bind cluster nodegroup all –node 2
add route 0 0 10.102.53.1 –ownerGroup all
Partager
Partager
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.