-
-
Configuration de Citrix ADC pour Citrix Virtual Apps and Desktops
-
Préférence de zone optimisée pour l'équilibrage de la charge du serveur global (GSLB)
-
Déploiement d'une plateforme de publicité numérique sur AWS avec Citrix ADC
-
Amélioration de l'analyse des flux de clics dans AWS à l'aide de Citrix ADC
-
Citrix ADC dans un cloud privé géré par Microsoft Windows Azure Pack et Cisco ACI
-
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Installer une instance Citrix ADC VPX sur le cloud VMware sur AWS
-
Installer une instance Citrix ADC VPX sur des serveurs Microsoft Hyper-V
-
Installer une instance Citrix ADC VPX sur la plate-forme Linux-KVM
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide d'OpenStack
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide de Virtual Machine Manager
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau SR-IOV
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau PCI
-
Provisioning de l'appliance virtuelle Citrix ADC à l'aide du programme virsh
-
Provisioning de l'appliance virtuelle Citrix ADC avec SR-IOV, sur OpenStack
-
Configuration d'une instance Citrix ADC VPX sur KVM pour utiliser les interfaces hôtes OVS DPDK
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Serveurs d'équilibrage de charge dans différentes zones de disponibilité
-
Haute disponibilité dans toutes les zones de disponibilité AWS
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées dans différentes zones AWS
-
Ajout d'un service de mise à l'échelle automatique AWS back-end
-
Configurer une instance Citrix ADC VPX pour utiliser l'interface réseau SR-IOV
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau améliorée avec AWS ENA
-
Déployer une instance de Citrix ADC VPX sur Microsoft Azure
-
Architecture réseau pour les instances Citrix ADC VPX sur Microsoft Azure
-
Configurer plusieurs adresses IP pour une instance autonome Citrix ADC VPX
-
Configurer une configuration haute disponibilité avec plusieurs adresses IP et cartes réseau
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau accélérée Azure
-
Configurer les nœuds HA-INC à l'aide du modèle de haute disponibilité Citrix avec Azure ILB
-
Ajouter des paramètres de mise à l'échelle automatique Azure
-
Configurer GSLB sur une configuration haute disponibilité active en veille
-
Configurer des pools d'adresses (IIP) pour une appliance Citrix Gateway
-
Scripts PowerShell supplémentaires pour le déploiement Azure
-
Déployer une instance Citrix ADC VPX sur Google Cloud Platform
-
Déployer une paire haute disponibilité VPX sur Google Cloud Platform
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées sur Google Cloud Platform
-
Ajouter un service de mise à l'échelle automatique GCP back-end
-
Prise en charge de la mise à l'échelle VIP pour l'instance Citrix ADC VPX sur GCP
-
-
Automatiser le déploiement et les configurations de Citrix ADC
-
Solutions pour les fournisseurs de services de télécommunication
-
Trafic de plan de contrôle d'équilibrage de charge basé sur les protocoles Diameter, SIP et SMPP
-
Utilisation de la bande passante à l'aide de la fonctionnalité de redirection de cache
-
Optimisation TCP de Citrix ADC
-
Authentification, autorisation et audit du trafic des applications
-
Fonctionnement de l'authentification, de l'autorisation et de l'audit
-
Composants de base de la configuration d'authentification, d'autorisation et d'audit
-
Autorisation de l'accès des utilisateurs aux ressources applicatives
-
Citrix ADC en tant que proxy du service de fédération Active Directory
-
Citrix Gateway sur site en tant que fournisseur d'identité pour Citrix Cloud
-
Prise en charge de la configuration de l'attribut de cookie SameSite
-
Configuration d'authentification, d'autorisation et d'audit pour les protocoles couramment utilisés
-
Résoudre les problèmes liés à l'authentification et à l'autorisation
-
-
-
Prise en charge de la configuration Citrix ADC dans la partition d'administration
-
Prise en charge de VXLAN pour les partitions d'administration
-
Prise en charge de SNMP pour les partitions d'administration
-
Prise en charge des journaux d'audit pour les partitions d'administration
-
Afficher les adresses PMAC configurées pour la configuration VLAN partagée
-
-
-
-
Configuration de l'expression de stratégie avancée : Mise en route
-
Expressions de stratégie avancées : utilisation de dates, d'heures et de nombres
-
Expressions de stratégie avancées : analyse des données HTTP, TCP et UDP
-
Expressions de stratégie avancées : analyse des certificats SSL
-
Expressions de stratégie avancées : adresses IP et MAC, débit, ID VLAN
-
Expressions de stratégie avancées : fonctions d'analyse de flux
-
Référence aux expressions - Expressions de stratégie avancées
-
Résumé d'exemples d'expressions et de stratégies de syntaxe par défaut
-
Didacticiel exemples de stratégies de syntaxe par défaut pour la réécriture
-
Migration des règles Apache mod_rewrite vers la syntaxe par défaut
-
-
-
Traduire l'adresse IP de destination d'une requête vers l'adresse IP d'origine
-
-
Prise en charge de la configuration de Citrix ADC dans un cluster
-
-
Configuration d'un cluster Citrix ADC
-
Création d'un cluster Citrix ADC
-
-
Groupes de nœuds pour les configurations spotted et striped partielles
-
Suppression du nœud d'un cluster déployé à l'aide de l'agrégation de liens de cluster
-
Surveillance des itinéraires pour les itinéraires dynamiques dans le cluster
-
Surveillance de la configuration du cluster à l'aide de MIB SNMP avec liaison SNMP
-
Surveillance des échecs de propagation des commandes dans un déploiement de cluster
-
Prise en charge de MSR pour les nœuds inactifs dans une configuration de cluster spotted
-
Liaison d'interface VRRP dans un cluster actif à nœud unique
-
Scénarios de configuration et d'utilisation du cluster
-
Migration d'une configuration HA vers une configuration de cluster
-
Interfaces communes pour le client et le serveur et interfaces dédiées pour le backplane
-
Commutateur commun pour le client, le serveur et le backplane
-
Commutateur commun pour le client et le serveur et commutateur dédié pour le backplane
-
Services de surveillance dans un cluster à l'aide de la surveillance des chemins
-
Opérations prises en charge sur des nœuds de cluster individuels
-
-
-
Configurer les enregistrements de ressources DNS
-
Créer des enregistrements MX pour un serveur d'échange de messagerie
-
Créer des enregistrements NS pour un serveur faisant autorité
-
Créer des enregistrements NAPTR pour le domaine des télécommunications
-
Créer des enregistrements PTR pour les adresses IPv4 et IPv6
-
Créer des enregistrements SOA pour les informations faisant autorité
-
Créer des enregistrements TXT pour contenir du texte descriptif
-
Configurer Citrix ADC en tant que résolveur de stub adapté à la sécurité sans validation
-
Prise en charge des trames Jumbo pour DNS pour gérer les réponses de grandes tailles
-
Configurer la mise en cache négative des enregistrements DNS
-
-
Équilibrage de charge globale des serveurs
-
Configurer les entités GSLB individuellement
-
Cas d'utilisation : Déploiement d'un groupe de services d'échelle automatique basé sur l'adresse IP
-
-
Remplacer le comportement de proximité statique en configurant les emplacements préférés
-
Configurer la sélection du service GSLB à l'aide du changement de contenu
-
Configurer GSLB pour les requêtes DNS avec les enregistrements NAPTR
-
Exemple de configuration parent-enfant complète à l'aide du protocole d'échange de mesures
-
-
Équilibrer la charge du serveur virtuel et des états de service
-
Protéger une configuration d'équilibrage de charge contre les défaillances
-
-
Configurer des serveurs virtuels d'équilibrage de charge sans session
-
Réécriture des ports et des protocoles pour la redirection HTTP
-
Insérer l'adresse IP et le port d'un serveur virtuel dans l'en-tête de requête
-
Utiliser une adresse IP source spécifiée pour la communication backend
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Utiliser un port source à partir d'une plage de ports spécifiée pour la communication backend
-
Configurer la persistance de l'IP source pour les communications backend
-
-
Paramètres avancés d'équilibrage de charge
-
Protéger les applications sur les serveurs protégés contre les surtensions de trafic
-
Activer le nettoyage des connexions de serveur virtuel et de service
-
Activer ou désactiver la session de persistance sur les services TROFS
-
Activer la vérification de l'état TCP externe pour les serveurs virtuels UDP
-
Maintenir la connexion client pour plusieurs demandes client
-
Utiliser l'adresse IP source du client lors de la connexion au serveur
-
Définir une limite de nombre de requêtes par connexion au serveur
-
Définir une valeur de seuil pour les moniteurs liés à un service
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Définir une valeur de délai d'attente pour les connexions au serveur inactif
-
Définir une limite sur l'utilisation de la bande passante par les clients
-
Configurer les moniteurs dans une configuration d'équilibrage de charge
-
Configurer l'équilibrage de charge pour les protocoles couramment utilisés
-
Cas d'utilisation 3 : Configurer l'équilibrage de charge en mode de retour direct du serveur
-
Cas d'utilisation 4 : Configurer les serveurs LINUX en mode DSR
-
Cas d'utilisation 5 : Configurer le mode DSR lors de l'utilisation de TOS
-
Cas d'utilisation 7 : Configurer l'équilibrage de charge en mode DSR à l'aide d'IP sur IP
-
Cas d'utilisation 8 : Configurer l'équilibrage de charge en mode à un bras
-
Cas d'utilisation 9 : Configurer l'équilibrage de charge en mode Inline
-
Cas d'utilisation 10 : Équilibrage de la charge des serveurs du système de détection d'intrusion
-
Cas d'utilisation 11 : Isolation du trafic réseau à l'aide de stratégies d'écoute
-
Cas d'utilisation 12 : Configurer XenDesktop pour l'équilibrage de charge
-
Cas d'utilisation 13 : Configurer XenApp pour l'équilibrage de charge
-
Cas d'utilisation 14 : Assistant ShareFile pour l'équilibrage de charge Citrix ShareFile
-
-
Configurer pour source de trafic de données Citrix ADC FreeBSD à partir d'une adresse SNIP
-
Déchargement et accélération SSL
-
Prise en charge du protocole TLSv1.3 tel que défini dans la RFC 8446
-
Suites de chiffrement disponibles sur les appliances Citrix ADC
-
Matrice de prise en charge des certificats de serveur sur l'appliance ADC
-
Prise en charge du module de sécurité matérielle du réseau Gemalto SafeNet
-
-
-
-
Authentification et autorisation pour les utilisateurs du système
-
Configuration des utilisateurs, des groupes d'utilisateurs et des stratégies de commande
-
Réinitialisation du mot de passe administrateur par défaut (nsroot)
-
Configuration de l'authentification des utilisateurs externes
-
Authentification basée sur la clé SSH pour les administrateurs Citrix ADC
-
Authentification à deux facteurs pour les utilisateurs système
-
-
-
Configuration d'un tunnel de connecteur CloudBridge entre deux centres de données
-
Configuration de CloudBridge Connector entre Datacenter et AWS Cloud
-
Configuration d'un tunnel de connecteur CloudBridge entre un centre de données et Azure Cloud
-
Configuration du tunnel Connector CloudBridge entre Datacenter et SoftLayer Enterprise Cloud
-
-
Points à prendre en considération pour une configuration de haute disponibilité
-
Restriction du trafic de synchronisation haute disponibilité à un VLAN
-
Configuration des nœuds haute disponibilité dans différents sous-réseaux
-
Limitation des basculements causés par les moniteurs de routage en mode non-INC
-
Comprendre le calcul de la vérification de l'état de haute disponibilité
-
Gestion des messages de pulsation haute disponibilité sur une appliance Citrix ADC
-
Suppression et remplacement d'un Citrix ADC dans une configuration haute disponibilité
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Création d’un cluster Citrix ADC
Pour créer un cluster, commencez par prendre l’un des appliances Citrix ADC que vous souhaitez ajouter au cluster. Sur ce nœud, vous devez créer l’instance de cluster et définir l’adresse IP de cluster. Ce nœud est le premier nœud de cluster et est appelé coordinateur de configuration de cluster (CCO). Toutes les configurations effectuées sur l’adresse IP du cluster sont stockées sur ce nœud, puis propagées aux autres nœuds du cluster.
La responsabilité de CCO dans une grappe n’est pas fixée à un nœud spécifique. Il peut changer au fil du temps en fonction des facteurs suivants :
-
La priorité du nœud. Le nœud ayant la priorité la plus élevée (numéro de priorité le plus bas) devient CCO. Par conséquent, si un nœud dont le numéro de priorité est inférieur à l’ACO existant est ajouté, le nouveau nœud prend le relais en tant que CCO.
Remarque
La priorité de nœud peut être configurée à partir de NetScaler 10.1.
-
Si le CCO actuel tombe en panne, le nœud avec le numéro de priorité le plus bas prend le relais en tant que CCO. Si la priorité n’est pas définie ou s’il existe plusieurs nœuds avec le numéro de priorité le plus bas, le CCO est sélectionné parmi l’un des nœuds disponibles.
Remarque
Les configurations de l’appliance (y compris les adresses SNIP et les VLAN) sont effacées en exécutant implicitement la
clear ns config extended
commande. Toutefois, le VLAN par défaut et le NSVLAN ne sont pas effacés de l’appliance. Par conséquent, si vous souhaitez que le NSVLAN soit sur le cluster, assurez-vous qu’il est créé avant l’ajout de l’appliance au cluster. Pour un cluster L3 (nœuds de cluster sur différents réseaux), les configurations réseau ne sont pas effacées de l’appliance.Important
HA Monitor (HAMON) sur une configuration de cluster est utilisé pour surveiller l’intégrité d’une interface sur chaque nœud. Le paramètre HAMON doit être activé sur chaque nœud pour surveiller l’état de l’interface. Si l’état opérationnel de l’interface HAMON activée s’éteint pour une raison quelconque, le nœud de cluster respectif est marqué comme étant malsain (NOT UP) et ce nœud ne peut pas servir le trafic.
Pour créer un cluster à l’aide de l’interface de ligne de commande
-
Ouvrez une session sur une appliance (par exemple, une appliance dotée d’une adresse NSIP 10.102.29.60) que vous souhaitez ajouter au cluster.
-
Ajoutez une instance de cluster.
add cluster instance <clId> -quorumType <NONE | MAJORITY> -inc <ENABLED | DISABLED> -backplanebasedview <ENABLED | DISABLED>
Remarque
- L’ID d’instance de cluster doit être unique au sein d’un réseau local.
- Le paramètre
-quorumType
doit être défini sur MAJORITY et non sur NONE dans les scénarios suivants :- Topologies qui n’ont pas de liens redondants entre les nœuds de cluster. Ces topologies peuvent être sujettes à la partition réseau en raison d’un point de défaillance unique.
- Lors d’opérations de cluster telles que l’ajout ou la suppression de nœuds.
- Pour un cluster L3, assurez-vous que le paramètre
-inc
est défini sur ENABLED. Le paramètre-inc
doit être désactivé pour un cluster L2. - Lorsque le paramètre
-backplanebasedview
est activé, la vue opérationnelle (ensemble de nœuds servant le trafic) est décidée en fonction des pulsations reçues uniquement sur l’interface du fond de panier. Par défaut, ce paramètre est désactivé. Lorsque ce paramètre est désactivé, un nœud ne dépend pas de la réception des pulsations de cœur uniquement sur le fond de panier.
-
[Uniquement pour un cluster L3] Créez un groupe de nœuds. À l’étape suivante, le nœud de cluster nouvellement ajouté doit être associé à ce groupe de nœuds.
Remarque
Ce groupe de nœuds comprend tout ou un sous-ensemble des appliances Citrix ADC qui appartiennent au même réseau.
add cluster nodegroup <name>
-
Ajoutez le dispositif Citrix ADC au cluster.
add cluster node <nodeId> <IPAddress> -state <state> -backplane <interface_name> -nodegroup <name>
Remarque Pour un cluster L3 :
- Le paramètre de groupe de nœuds doit être défini sur le nom du groupe de nœuds créé.
- Le paramètre fond de panier est obligatoire pour les nœuds associés à un groupe de nœuds comportant plusieurs nœuds, afin que les nœuds du réseau puissent communiquer entre eux.</span>
Exemple :
Ajout d’un nœud pour un cluster L2 (tous les nœuds de cluster se trouvent dans le même réseau).
add cluster node 0 10.102.29.60 -state PASSIVE -backplane 0/1/1
Ajout d’un nœud pour un cluster L3 qui inclut un nœud unique de chaque réseau. Ici, vous n’avez pas à définir le backplane.
add cluster node 0 10.102.29.60 -state PASSIVE -nodegroup ng1
Ajout d’un nœud pour un cluster L3 qui inclut plusieurs nœuds de chaque réseau. Ici, vous devez définir le fond de panier afin que les nœuds d’un réseau puissent communiquer entre eux.
add cluster node 0 10.102.29.60 -state PASSIVE -backplane 0/1/1 -nodegroup ng1
-
Ajoutez l’adresse IP du cluster (par exemple, 10.102.29.61) sur ce nœud.
add ns ip <IPAddress> <netmask> -type clip
Exemple
> add ns ip 10.102.29.61 255.255.255.255 -type clip
-
Activez l’instance de cluster.
enable cluster instance <clId>
-
Enregistrez la configuration.
save ns config
-
Redémarrez l’appliance à chaud.
reboot -warm
Vérifiez les configurations de cluster à l’aide de la commande show cluster instance. Vérifiez que la sortie de la commande affiche l’adresse NSIP de l’appliance en tant que nœud du cluster.
-
Une fois que le nœud est UP, connectez-vous au CLIP et modifiez les informations d’identification RPC pour l’adresse IP du cluster et l’adresse IP du nœud. Pour plus d’informations sur la modification du mot de passe d’un nœud RPC, reportez-vous à la sectionModifier le mot de passe d’un nœud RPC.
Pour créer un cluster à l’aide de l’interface graphique
- Ouvrez une session sur une appliance (par exemple, une appliance dotée d’une adresse NSIP 10.102.29.60) que vous avez l’intention d’ajouter au cluster.
- Accédez à Système > Cluster.
- Dans le volet d’informations, cliquez sur le lien Gérer le cluster .
- Dans la boîte de dialogue Configuration du cluster, définissez les paramètres requis pour créer un cluster. Pour une description d’un paramètre, placez le curseur de la souris sur la zone de texte correspondante.
- Cliquez sur Créer.
- Dans la boîte de dialogue Configurer l’instance de cluster, activez la case à cocher Activer l’instance de cluster.
- Dans le volet Nœuds de cluster, sélectionnez le nœud et cliquez sur Ouvrir.
- Dans la boîte de dialogue Configurer le nœud de cluster, définissez l’état.
- Cliquez sur OK, puis cliquez sur Enregistrer.
- Redémarrez l’appliance à chaud.
- Une fois que le nœud est UP, connectez-vous au CLIP et modifiez les informations d’identification RPC pour l’adresse IP du cluster et l’adresse IP du nœud. Pour plus d’informations sur la modification du mot de passe d’un nœud RPC, reportez-vous à la sectionModifier le mot de passe d’un nœud RPC.
Prise en charge du mode strict pour l’état de synchronisation du cluster
Vous pouvez désormais configurer un nœud de cluster pour afficher les erreurs lors de l’application de la configuration. Un nouveau paramètre, « SyncStatusStrictMode » est introduit dans la commande add and set cluster instance afin de suivre l’état de chaque nœud d’un cluster. Par défaut, le paramètre « SyncStatusStrictMode » est désactivé.
Pour activer le mode strict à l’aide de l’interface de ligne de commande
À l’invite de commandes, tapez :
set cluster instance <clID> [-syncStatusStrictMode (ENABLED | DISABLED)]
Exemple :
set cluster instance 1 –syncStatusStrictMode ENABLED
Pour afficher l’état du mode strict à l’aide de l’interface de ligne de commande
>show cluster instance
1) Cluster ID: 1
Dead Interval: 3 secs
Hello Interval: 200 msecs
Preemption: DISABLED
Propagation: ENABLED
Quorum Type: MAJORITY
INC State: DISABLED
Process Local: DISABLED
Retain Connections: NO
Heterogeneous: NO
Backplane based view: DISABLED
Cluster sync strict mode: ENABLED
Cluster Status: ENABLED(admin), ENABLED(operational), UP
WARNING(s):
(1) - There are no spotted SNIPs configured on the cluster. Spotted SNIPs can help improve cluster performance
Member Nodes:
Node ID Node IP Health Admin State Operational State
------- ------- ------ ----------- -----------------
1) 1 192.0.2.20 UP ACTIVE ACTIVE(Configuration Coordinator)
2) 2 192.0.2.21 UP ACTIVE ACTIVE
3) 3 192.0.2.19* UP ACTIVE ACTIVE
Pour afficher la raison d’échec de synchronisation d’un nœud de cluster à l’aide de l’interface graphique
- Accédez à Système > Cluster > Nœuds de cluster.
- Dans la page Nœuds de cluster, faites défiler l’écran vers l’extrême droite pour afficher les détails de la raison d’échec de synchronisation des nœuds de cluster.
Partager
Partager
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.