-
-
Configuration de Citrix ADC pour Citrix Virtual Apps and Desktops
-
Préférence de zone optimisée pour l'équilibrage de la charge du serveur global (GSLB)
-
Déploiement d'une plateforme de publicité numérique sur AWS avec Citrix ADC
-
Amélioration de l'analyse des flux de clics dans AWS à l'aide de Citrix ADC
-
Citrix ADC dans un cloud privé géré par Microsoft Windows Azure Pack et Cisco ACI
-
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Installer une instance Citrix ADC VPX sur le cloud VMware sur AWS
-
Installer une instance Citrix ADC VPX sur des serveurs Microsoft Hyper-V
-
Installer une instance Citrix ADC VPX sur la plate-forme Linux-KVM
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide d'OpenStack
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide de Virtual Machine Manager
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau SR-IOV
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau PCI
-
Provisioning de l'appliance virtuelle Citrix ADC à l'aide du programme virsh
-
Provisioning de l'appliance virtuelle Citrix ADC avec SR-IOV, sur OpenStack
-
Configuration d'une instance Citrix ADC VPX sur KVM pour utiliser les interfaces hôtes OVS DPDK
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Serveurs d'équilibrage de charge dans différentes zones de disponibilité
-
Haute disponibilité dans toutes les zones de disponibilité AWS
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées dans différentes zones AWS
-
Ajout d'un service de mise à l'échelle automatique AWS back-end
-
Configurer une instance Citrix ADC VPX pour utiliser l'interface réseau SR-IOV
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau améliorée avec AWS ENA
-
Déployer une instance de Citrix ADC VPX sur Microsoft Azure
-
Architecture réseau pour les instances Citrix ADC VPX sur Microsoft Azure
-
Configurer plusieurs adresses IP pour une instance autonome Citrix ADC VPX
-
Configurer une configuration haute disponibilité avec plusieurs adresses IP et cartes réseau
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau accélérée Azure
-
Configurer les nœuds HA-INC à l'aide du modèle de haute disponibilité Citrix avec Azure ILB
-
Ajouter des paramètres de mise à l'échelle automatique Azure
-
Configurer GSLB sur une configuration haute disponibilité active en veille
-
Configurer des pools d'adresses (IIP) pour une appliance Citrix Gateway
-
Scripts PowerShell supplémentaires pour le déploiement Azure
-
Déployer une instance Citrix ADC VPX sur Google Cloud Platform
-
Déployer une paire haute disponibilité VPX sur Google Cloud Platform
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées sur Google Cloud Platform
-
Ajouter un service de mise à l'échelle automatique GCP back-end
-
Prise en charge de la mise à l'échelle VIP pour l'instance Citrix ADC VPX sur GCP
-
-
Automatiser le déploiement et les configurations de Citrix ADC
-
Solutions pour les fournisseurs de services de télécommunication
-
Trafic de plan de contrôle d'équilibrage de charge basé sur les protocoles Diameter, SIP et SMPP
-
Utilisation de la bande passante à l'aide de la fonctionnalité de redirection de cache
-
Optimisation TCP de Citrix ADC
-
Capacité à monter en charge
-
Authentification, autorisation et audit du trafic des applications
-
Fonctionnement de l'authentification, de l'autorisation et de l'audit
-
Composants de base de la configuration d'authentification, d'autorisation et d'audit
-
Autorisation de l'accès des utilisateurs aux ressources applicatives
-
Citrix ADC en tant que proxy du service de fédération Active Directory
-
Citrix Gateway sur site en tant que fournisseur d'identité pour Citrix Cloud
-
Prise en charge de la configuration de l'attribut de cookie SameSite
-
Configuration d'authentification, d'autorisation et d'audit pour les protocoles couramment utilisés
-
Résoudre les problèmes liés à l'authentification et à l'autorisation
-
-
-
Prise en charge de la configuration Citrix ADC dans la partition d'administration
-
Prise en charge de VXLAN pour les partitions d'administration
-
Prise en charge de SNMP pour les partitions d'administration
-
Prise en charge des journaux d'audit pour les partitions d'administration
-
Afficher les adresses PMAC configurées pour la configuration VLAN partagée
-
-
-
-
Configuration de l'expression de stratégie avancée : Mise en route
-
Expressions de stratégie avancées : utilisation de dates, d'heures et de nombres
-
Expressions de stratégie avancées : analyse des données HTTP, TCP et UDP
-
Expressions de stratégie avancées : analyse des certificats SSL
-
Expressions de stratégie avancées : adresses IP et MAC, débit, ID VLAN
-
Expressions de stratégie avancées : fonctions d'analyse de flux
-
Référence aux expressions - Expressions de stratégie avancées
-
Résumé d'exemples d'expressions et de stratégies de syntaxe par défaut
-
Didacticiel exemples de stratégies de syntaxe par défaut pour la réécriture
-
Migration des règles Apache mod_rewrite vers la syntaxe par défaut
-
-
-
Traduire l'adresse IP de destination d'une requête vers l'adresse IP d'origine
-
-
Prise en charge de la configuration de Citrix ADC dans un cluster
-
-
-
Groupes de nœuds pour les configurations spotted et striped partielles
-
Suppression du nœud d'un cluster déployé à l'aide de l'agrégation de liens de cluster
-
Surveillance des itinéraires pour les itinéraires dynamiques dans le cluster
-
Surveillance de la configuration du cluster à l'aide de MIB SNMP avec liaison SNMP
-
Surveillance des échecs de propagation des commandes dans un déploiement de cluster
-
Prise en charge de MSR pour les nœuds inactifs dans une configuration de cluster spotted
-
Liaison d'interface VRRP dans un cluster actif à nœud unique
-
Scénarios de configuration et d'utilisation du cluster
-
Migration d'une configuration HA vers une configuration de cluster
-
Interfaces communes pour le client et le serveur et interfaces dédiées pour le backplane
-
Commutateur commun pour le client, le serveur et le backplane
-
Commutateur commun pour le client et le serveur et commutateur dédié pour le backplane
-
Services de surveillance dans un cluster à l'aide de la surveillance des chemins
-
Opérations prises en charge sur des nœuds de cluster individuels
-
-
-
Configurer les enregistrements de ressources DNS
-
Créer des enregistrements MX pour un serveur d'échange de messagerie
-
Créer des enregistrements NS pour un serveur faisant autorité
-
Créer des enregistrements NAPTR pour le domaine des télécommunications
-
Créer des enregistrements PTR pour les adresses IPv4 et IPv6
-
Créer des enregistrements SOA pour les informations faisant autorité
-
Créer des enregistrements TXT pour contenir du texte descriptif
-
Configurer Citrix ADC en tant que résolveur de stub adapté à la sécurité sans validation
-
Prise en charge des trames Jumbo pour DNS pour gérer les réponses de grandes tailles
-
Configurer la mise en cache négative des enregistrements DNS
-
-
Équilibrage de charge globale des serveurs
-
Configurer les entités GSLB individuellement
-
Cas d'utilisation : Déploiement d'un groupe de services d'échelle automatique basé sur l'adresse IP
-
-
Remplacer le comportement de proximité statique en configurant les emplacements préférés
-
Configurer la sélection du service GSLB à l'aide du changement de contenu
-
Configurer GSLB pour les requêtes DNS avec les enregistrements NAPTR
-
Exemple de configuration parent-enfant complète à l'aide du protocole d'échange de mesures
-
-
Équilibrer la charge du serveur virtuel et des états de service
-
Protéger une configuration d'équilibrage de charge contre les défaillances
-
-
Configurer des serveurs virtuels d'équilibrage de charge sans session
-
Réécriture des ports et des protocoles pour la redirection HTTP
-
Insérer l'adresse IP et le port d'un serveur virtuel dans l'en-tête de requête
-
Utiliser une adresse IP source spécifiée pour la communication backend
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Utiliser un port source à partir d'une plage de ports spécifiée pour la communication backend
-
Configurer la persistance de l'IP source pour les communications backend
-
-
Paramètres avancés d'équilibrage de charge
-
Protéger les applications sur les serveurs protégés contre les surtensions de trafic
-
Activer le nettoyage des connexions de serveur virtuel et de service
-
Activer ou désactiver la session de persistance sur les services TROFS
-
Activer la vérification de l'état TCP externe pour les serveurs virtuels UDP
-
Maintenir la connexion client pour plusieurs demandes client
-
Utiliser l'adresse IP source du client lors de la connexion au serveur
-
Définir une limite de nombre de requêtes par connexion au serveur
-
Définir une valeur de seuil pour les moniteurs liés à un service
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Définir une valeur de délai d'attente pour les connexions au serveur inactif
-
Définir une limite sur l'utilisation de la bande passante par les clients
-
Configurer les moniteurs dans une configuration d'équilibrage de charge
-
Configurer l'équilibrage de charge pour les protocoles couramment utilisés
-
Cas d'utilisation 3 : Configurer l'équilibrage de charge en mode de retour direct du serveur
-
Cas d'utilisation 4 : Configurer les serveurs LINUX en mode DSR
-
Cas d'utilisation 5 : Configurer le mode DSR lors de l'utilisation de TOS
-
Cas d'utilisation 7 : Configurer l'équilibrage de charge en mode DSR à l'aide d'IP sur IP
-
Cas d'utilisation 8 : Configurer l'équilibrage de charge en mode à un bras
-
Cas d'utilisation 9 : Configurer l'équilibrage de charge en mode Inline
-
Cas d'utilisation 10 : Équilibrage de la charge des serveurs du système de détection d'intrusion
-
Cas d'utilisation 11 : Isolation du trafic réseau à l'aide de stratégies d'écoute
-
Cas d'utilisation 12 : Configurer XenDesktop pour l'équilibrage de charge
-
Cas d'utilisation 13 : Configurer XenApp pour l'équilibrage de charge
-
Cas d'utilisation 14 : Assistant ShareFile pour l'équilibrage de charge Citrix ShareFile
-
-
Configurer pour source de trafic de données Citrix ADC FreeBSD à partir d'une adresse SNIP
-
Déchargement et accélération SSL
-
Prise en charge du protocole TLSv1.3 tel que défini dans la RFC 8446
-
Suites de chiffrement disponibles sur les appliances Citrix ADC
-
Matrice de prise en charge des certificats de serveur sur l'appliance ADC
-
Prise en charge du module de sécurité matérielle du réseau Gemalto SafeNet
-
-
-
-
Authentification et autorisation pour les utilisateurs du système
-
Configuration des utilisateurs, des groupes d'utilisateurs et des stratégies de commande
-
Réinitialisation du mot de passe administrateur par défaut (nsroot)
-
Configuration de l'authentification des utilisateurs externes
-
Authentification basée sur la clé SSH pour les administrateurs Citrix ADC
-
Authentification à deux facteurs pour les utilisateurs système
-
-
-
Configuration d'un tunnel de connecteur CloudBridge entre deux centres de données
-
Configuration de CloudBridge Connector entre Datacenter et AWS Cloud
-
Configuration d'un tunnel de connecteur CloudBridge entre un centre de données et Azure Cloud
-
Configuration du tunnel Connector CloudBridge entre Datacenter et SoftLayer Enterprise Cloud
-
-
Points à prendre en considération pour une configuration de haute disponibilité
-
Restriction du trafic de synchronisation haute disponibilité à un VLAN
-
Configuration des nœuds haute disponibilité dans différents sous-réseaux
-
Limitation des basculements causés par les moniteurs de routage en mode non-INC
-
Comprendre le calcul de la vérification de l'état de haute disponibilité
-
Gestion des messages de pulsation haute disponibilité sur une appliance Citrix ADC
-
Suppression et remplacement d'un Citrix ADC dans une configuration haute disponibilité
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Capacité à monter en charge
Étant donné que l’optimisation TCP nécessite beaucoup de ressources, une seule appliance Citrix ADC, même une appliance haut de gamme, peut ne pas être en mesure de supporter des débits Gi-LAN élevés. Pour étendre la capacité de votre réseau, vous pouvez déployer des appliances Citrix ADC dans une formation de cluster N+1. Dans un déploiement de cluster, les appliances Citrix ADC fonctionnent ensemble en tant qu’image système unique. Le trafic client est distribué sur les nœuds de cluster à l’aide d’un périphérique de commutateur externe.
Topologie
La figure 1 est un exemple de cluster composé de quatre nœuds T1300-40G.
La configuration illustrée à la figure 1 possède les propriétés suivantes :
- Tous les nœuds de cluster appartiennent au même réseau (également connu sous le nom de cluster L2).
- Le trafic du plan de données et du backplane est géré par différents commutateurs.
- En supposant que le débit Gi-LAN soit de 200 Gbit/s et qu’une appliance T1300-40G puisse supporter un débit de 80 Gbit/s, nous avons besoin de trois appliances T1300-40G. Pour assurer la redondance en cas de défaillance d’un nœud de cluster unique, nous déployons quatre appliances au total.
- Chaque nœud recevra jusqu’à 67 Gbit/s de trafic (50 Gbit/s dans des conditions normales de fonctionnement et 67 Gbit/s en cas de défaillance d’un nœud de cluster unique), il a donc besoin de connexions 2x40 Gbit/s au commutateur en amont. Pour assurer la redondance en cas de panne du commutateur, nous déployons quelques commutateurs en amont et doublons le nombre de connexions.
- Cluster Link Aggregation (CLAG) est utilisé pour distribuer le trafic entre les nœuds de cluster. Un seul CLAG gère à la fois le trafic client et serveur. La redondance des liens est activée sur le CLAG, de sorte qu’un seul « sous-canal » est sélectionné à un moment donné et gère le trafic. Si une liaison échoue ou si le débit tombe en dessous du seuil spécifié, l’autre sous-canal est sélectionné.
- Le commutateur en amont effectue l’équilibrage symétrique de la charge du canal port (par exemple, l’algorithme source-dest-ip uniquement de Cisco IOS 7.0 (8) N1 (1)) afin que les flux de trafic avant et inverse soient gérés par le même nœud de cluster. Cette propriété est souhaitable car elle élimine la réorganisation des paquets, ce qui dégraderait les performances TCP.
- Cinquante pour cent du trafic de données devrait être dirigé vers le backplane, ce qui signifie que chaque nœud dirigera jusqu’à 34 Gbit/s vers d’autres nœuds de cluster (25 Gbit/s dans des conditions normales d’exploitation et 34 Gbit/s en cas de défaillance d’un nœud de cluster unique). Ainsi, chaque nœud a besoin d’au moins 4x10G connexions au commutateur de backplane. Pour assurer la redondance en cas de panne du commutateur, nous déployons quelques commutateurs de backplane et doublons le nombre de connexions. La redondance de liaison n’est pas actuellement prise en charge pour le backplane, de sorte que Cisco VPC ou une technologie équivalente est souhaitée pour obtenir une redondance au niveau du commutateur.
- La taille MTU des paquets dirigés est de 1578 octets, donc les commutateurs de backplane doivent prendre en charge un MTU supérieur à 1500 octets.
Remarque : La conception illustrée à la figure 1 s’applique également aux appareils T1120 et T1310. Pour T1310, nous utiliserions des interfaces 40GbE pour les connexions de backplane, car il manque de ports 10GbE.
Remarque : Bien que ce document utilise Cisco VPC à titre d’exemple, si vous travaillez avec des commutateurs non Cisco, des solutions équivalentes alternatives pourraient être utilisées, telles que le MLAG de Juniper.
Remarque : Bien que d’autres topologies telles que ECMP au lieu de CLAG soient possibles, elles ne sont pas actuellement prises en charge pour ce cas d’utilisation particulier.
Configuration de l’optimisation TCP dans un cluster Citrix ADC T1000
Une fois l’installation physique, la connectivité physique, l’installation logicielle et les licences terminées, vous pouvez procéder à la configuration réelle du cluster. Les configurations décrites ci-dessous s’appliquent au cluster représenté à la figure 1.
Remarque : Pour plus d’informations sur la configuration du cluster, reportez-vous à la section Configuration d’un cluster Citrix ADC.
Supposons que les quatre nœuds T1300 de la figure 1 ont les adresses NSIP suivantes :
Quatre nœuds T1300 avec adresse NSIP :
T1300-40-1 : 10.102.29.60
T1300-40-2 : 10.102.29.70
T1300-40-3 : 10.102.29.80
T1300-40-4 : 10.102.29.90
Le cluster sera géré via l’adresse IP du cluster (CLIP), qui est supposée être 10.78.16.61.
Configuration du cluster
Pour commencer à configurer le cluster illustré à la figure 1, ouvrez une session sur la première appliance à ajouter au cluster (par exemple, T1300-40-1) et procédez comme suit.
-
À l’invite de commandes, entrez les commandes suivantes :
Commande :
> add cluster instance 1 > add cluster node 0 10.102.29.60 -state ACTIVE > add ns ip 10.102.29.61 255.255.255.255 -type clip > enable cluster instance 1 > save ns config > reboot –warm
-
Après le redémarrage de l’appliance, connectez-vous à l’adresse IP du cluster (CLIP) et ajoutez le reste des nœuds au cluster :
Commande :
> add cluster node 1 10.102.29.70 -state ACTIVE > add cluster node 2 10.102.29.80 -state ACTIVE > add cluster node 3 10.102.29.90 –state ACTIVE > save ns config
-
Connectez-vous à l’adresse NSIP de chacun des nœuds nouvellement ajoutés et rejoignez le cluster :
Commande :
> join cluster -clip 10.102.29.61 -password nsroot > save ns config > reboot –warm
-
Après le redémarrage des nœuds, procédez à la configuration du fond de panier. Sur l’adresse IP du cluster, entrez les commandes suivantes pour créer un canal LACP pour le lien de backplane de chaque nœud de cluster :
Commande :
> set interface 0/10/[1-8] –lacpkey 1 –lacpmode ACTIVE > set interface 1/10/[1-8] –lacpkey 2 –lacpmode ACTIVE > set interface 2/10/[1-8] –lacpkey 3 –lacpmode ACTIVE > set interface 3/10/[1-8] –lacpkey 4 –lacpmode ACTIVE
-
De même, configurez LA et VPC dynamiques sur les commutateurs de fond de panier. Assurez-vous que la MTU des interfaces de commutateur de backplane est d’au moins 1578 octets.
-
Vérifiez que les canaux sont opérationnels :
Commande :
> show channel 0/LA/1 > show channel 1/LA/2 > show channel 2/LA/3 > show channel 3/LA/4
-
Configurez les interfaces de fond de panier du nœud de cluster.
Commande :
> set cluster node 0 -backplane 0/LA/1 > set cluster node 1 -backplane 1/LA/2 > set cluster node 2 -backplane 2/LA/3 > set cluster node 3 –backplane 3/LA/4
-
Vérifiez l’état du cluster et vérifiez que le cluster est opérationnel :
> Afficher l'instance de cluster > show cluster node
Pour plus d’informations sur la configuration du cluster, voirConfiguration d’un cluster Citrix ADC
Répartition du trafic entre les nœuds de cluster
Une fois que vous avez formé le cluster ADC CITRIX, déployez Cluster Link Aggregation (CLAG) pour distribuer le trafic entre les nœuds de cluster. Une liaison CLAG unique gérera à la fois le trafic client et serveur.
Sur l’adresse IP du cluster, exécutez les commandes suivantes pour créer le groupe CLAG (Cluster Link Agrégation) illustré à la Figure 1 :
Commande :
> set interface 0/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 1/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 2/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
Configurez l’agrégation de liens dynamiques sur les commutateurs externes.
Activez ensuite la redondance des liens comme suit :
Code :
> set channel CLA/1 -linkRedundancy ON -lrMinThroughput 240000
Enfin, vérifiez l’état de la chaîne en entrant :
Commande :
> show channel CLA/1
Le canal doit être UP et le débit réel devrait être 320000.
Pour plus d’informations sur l’agrégation des liens de cluster, consultez les rubriques suivantes :
Parce que nous allons utiliser le transfert basé sur Mac (MBF), configurez un jeu de liens et le lier au groupe CLAG comme suit :
Commande :
> add linkset LS/1
> bind linkset LS/1 -ifnum CLA/1
Pour plus d’informations sur les jeux de liens, consultez les rubriques suivantes :
Configuration des adresses VLAN et IP
Nous utiliserons la configuration IP par bandes, ce qui signifie que les adresses IP sont actives sur tous les nœuds (paramètre par défaut). Pour plus d’informations sur cette rubrique, reportez-vous à la section Configurations striped, striped partielles et spotted.
-
Ajouter les SNIP d’entrée et de sortie :
Commande :
> add ns ip 172.16.30.254 255.255.255.0 –type SNIP > add ns ip 172.16.31.254 255.255.255.0 –type SNIP > add ns ip6 fd00:172:16:30::254/112 –type SNIP > add ns ip6 fd00:172:16:31::254/112 –type SNIP
-
Ajoutez les VLAN d’entrée et de sortie correspondants :
Commande :
> add vlan 30 -aliasName wireless > add vlan 31 -aliasName internet
-
Liez des VLAN avec des adresses IP et un jeu de liens :
Commande :
> lier vlan 31 -ifnum LS/1 -tagué > lier vlan 30 -ifnum LS/1 -tagué > bind vlan 30 -IPAddress 172.16.30.254 255.255.255.0 > bind vlan 31 -IPAddress 172.16.31.254 255.255.255.0 > bind vlan 30 -IPAddress fd00:172:16:30::254/112 > bind vlan 31 -IPAddress fd00:172:16:31::254/112
Plus de VLAN d’entrée et de sortie peuvent être ajoutés si nécessaire.
Configuration de l’optimisation TCP
À ce stade, nous avons appliqué toutes les commandes spécifiques au cluster. Pour terminer la configuration, suivez les étapes décrites à la section Configuration de l’optimisation TCP.
Configuration du routage dynamique
Un cluster Citrix ADC peut être intégré à l’environnement de routage dynamique du réseau du client. Voici un exemple de configuration de routage dynamique à l’aide du protocole de routage BGP (OSPF est également pris en charge).
-
À partir de l’adresse CLIP, activez BGP et le routage dynamique sur les adresses IP d’entrée et de sortie :
Commande :
> enable ns feature bgp > set ns ip 172.16.30.254 –dynamicRouting ENABLED > set ns ip 172.16.31.254 –dynamicRouting ENABLED
-
Ouvrez vtysh et configurez BGP pour le côté sortie :
Code :
> shell root@ns# vtysh ns# configurer le terminal ns(config)# router bgp 65531 ns(config-router)# network 10.0.0.0/24 ns(config-router)# neighbor 172.16.31.100 remote-as 65530 ns(config-router)# neighbor 172.16.31.100 update-source 172.16.31.254 ns(config-router)# exit ns(config)# ns route-install propagate ns(config)# ns route-install default ns(config)# ns route-install bgp ns(config)# exit
-
Configurez l’homologue BGP côté sortie pour annoncer la route par défaut vers le cluster Citrix ADC. Par exemple :
Commande :
router bgp 65530 bgp routeur id 172.16.31.100 réseau 0.0.0.0/0 voisin 172.16.31.254 télécommande-comme 65531
-
Suivez les étapes similaires pour configurer le côté entrée.
-
À partir de vtysh, vérifiez que la configuration est propagée à tous les nœuds de cluster, en entrant :
Commande :
ns# show running-config
-
Enfin, connectez-vous à l’adresse NSIP de chaque nœud de cluster et vérifiez les routes annoncées par le pair BGP :
Commande :
> show route | grep BGP
Partager
Partager
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.