-
-
Configuration de Citrix ADC pour Citrix Virtual Apps and Desktops
-
Préférence de zone optimisée pour l'équilibrage de la charge du serveur global (GSLB)
-
Déploiement d'une plateforme de publicité numérique sur AWS avec Citrix ADC
-
Amélioration de l'analyse des flux de clics dans AWS à l'aide de Citrix ADC
-
Citrix ADC dans un cloud privé géré par Microsoft Windows Azure Pack et Cisco ACI
-
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Installer une instance Citrix ADC VPX sur le cloud VMware sur AWS
-
Installer une instance Citrix ADC VPX sur des serveurs Microsoft Hyper-V
-
Installer une instance Citrix ADC VPX sur la plate-forme Linux-KVM
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide d'OpenStack
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide de Virtual Machine Manager
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau SR-IOV
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau PCI
-
Provisioning de l'appliance virtuelle Citrix ADC à l'aide du programme virsh
-
Provisioning de l'appliance virtuelle Citrix ADC avec SR-IOV, sur OpenStack
-
Configuration d'une instance Citrix ADC VPX sur KVM pour utiliser les interfaces hôtes OVS DPDK
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Serveurs d'équilibrage de charge dans différentes zones de disponibilité
-
Haute disponibilité dans toutes les zones de disponibilité AWS
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées dans différentes zones AWS
-
Ajout d'un service de mise à l'échelle automatique AWS back-end
-
Configurer une instance Citrix ADC VPX pour utiliser l'interface réseau SR-IOV
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau améliorée avec AWS ENA
-
Déployer une instance de Citrix ADC VPX sur Microsoft Azure
-
Architecture réseau pour les instances Citrix ADC VPX sur Microsoft Azure
-
Configurer plusieurs adresses IP pour une instance autonome Citrix ADC VPX
-
Configurer une configuration haute disponibilité avec plusieurs adresses IP et cartes réseau
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau accélérée Azure
-
Configurer les nœuds HA-INC à l'aide du modèle de haute disponibilité Citrix avec Azure ILB
-
Ajouter des paramètres de mise à l'échelle automatique Azure
-
Configurer GSLB sur une configuration haute disponibilité active en veille
-
Configurer des pools d'adresses (IIP) pour une appliance Citrix Gateway
-
Scripts PowerShell supplémentaires pour le déploiement Azure
-
Déployer une instance Citrix ADC VPX sur Google Cloud Platform
-
Déployer une paire haute disponibilité VPX sur Google Cloud Platform
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées sur Google Cloud Platform
-
Ajouter un service de mise à l'échelle automatique GCP back-end
-
Prise en charge de la mise à l'échelle VIP pour l'instance Citrix ADC VPX sur GCP
-
-
Automatiser le déploiement et les configurations de Citrix ADC
-
Solutions pour les fournisseurs de services de télécommunication
-
Trafic de plan de contrôle d'équilibrage de charge basé sur les protocoles Diameter, SIP et SMPP
-
Utilisation de la bande passante à l'aide de la fonctionnalité de redirection de cache
-
Optimisation TCP de Citrix ADC
-
Configuration de l'optimisation TCP
-
Authentification, autorisation et audit du trafic des applications
-
Fonctionnement de l'authentification, de l'autorisation et de l'audit
-
Composants de base de la configuration d'authentification, d'autorisation et d'audit
-
Autorisation de l'accès des utilisateurs aux ressources applicatives
-
Citrix ADC en tant que proxy du service de fédération Active Directory
-
Citrix Gateway sur site en tant que fournisseur d'identité pour Citrix Cloud
-
Prise en charge de la configuration de l'attribut de cookie SameSite
-
Configuration d'authentification, d'autorisation et d'audit pour les protocoles couramment utilisés
-
Résoudre les problèmes liés à l'authentification et à l'autorisation
-
-
-
Prise en charge de la configuration Citrix ADC dans la partition d'administration
-
Prise en charge de VXLAN pour les partitions d'administration
-
Prise en charge de SNMP pour les partitions d'administration
-
Prise en charge des journaux d'audit pour les partitions d'administration
-
Afficher les adresses PMAC configurées pour la configuration VLAN partagée
-
-
-
-
Configuration de l'expression de stratégie avancée : Mise en route
-
Expressions de stratégie avancées : utilisation de dates, d'heures et de nombres
-
Expressions de stratégie avancées : analyse des données HTTP, TCP et UDP
-
Expressions de stratégie avancées : analyse des certificats SSL
-
Expressions de stratégie avancées : adresses IP et MAC, débit, ID VLAN
-
Expressions de stratégie avancées : fonctions d'analyse de flux
-
Référence aux expressions - Expressions de stratégie avancées
-
Résumé d'exemples d'expressions et de stratégies de syntaxe par défaut
-
Didacticiel exemples de stratégies de syntaxe par défaut pour la réécriture
-
Migration des règles Apache mod_rewrite vers la syntaxe par défaut
-
-
-
Traduire l'adresse IP de destination d'une requête vers l'adresse IP d'origine
-
-
Prise en charge de la configuration de Citrix ADC dans un cluster
-
-
-
Groupes de nœuds pour les configurations spotted et striped partielles
-
Suppression du nœud d'un cluster déployé à l'aide de l'agrégation de liens de cluster
-
Surveillance des itinéraires pour les itinéraires dynamiques dans le cluster
-
Surveillance de la configuration du cluster à l'aide de MIB SNMP avec liaison SNMP
-
Surveillance des échecs de propagation des commandes dans un déploiement de cluster
-
Prise en charge de MSR pour les nœuds inactifs dans une configuration de cluster spotted
-
Liaison d'interface VRRP dans un cluster actif à nœud unique
-
Scénarios de configuration et d'utilisation du cluster
-
Migration d'une configuration HA vers une configuration de cluster
-
Interfaces communes pour le client et le serveur et interfaces dédiées pour le backplane
-
Commutateur commun pour le client, le serveur et le backplane
-
Commutateur commun pour le client et le serveur et commutateur dédié pour le backplane
-
Services de surveillance dans un cluster à l'aide de la surveillance des chemins
-
Opérations prises en charge sur des nœuds de cluster individuels
-
-
-
Configurer les enregistrements de ressources DNS
-
Créer des enregistrements MX pour un serveur d'échange de messagerie
-
Créer des enregistrements NS pour un serveur faisant autorité
-
Créer des enregistrements NAPTR pour le domaine des télécommunications
-
Créer des enregistrements PTR pour les adresses IPv4 et IPv6
-
Créer des enregistrements SOA pour les informations faisant autorité
-
Créer des enregistrements TXT pour contenir du texte descriptif
-
Configurer Citrix ADC en tant que résolveur de stub adapté à la sécurité sans validation
-
Prise en charge des trames Jumbo pour DNS pour gérer les réponses de grandes tailles
-
Configurer la mise en cache négative des enregistrements DNS
-
-
Équilibrage de charge globale des serveurs
-
Configurer les entités GSLB individuellement
-
Cas d'utilisation : Déploiement d'un groupe de services d'échelle automatique basé sur l'adresse IP
-
-
Remplacer le comportement de proximité statique en configurant les emplacements préférés
-
Configurer la sélection du service GSLB à l'aide du changement de contenu
-
Configurer GSLB pour les requêtes DNS avec les enregistrements NAPTR
-
Exemple de configuration parent-enfant complète à l'aide du protocole d'échange de mesures
-
-
Équilibrer la charge du serveur virtuel et des états de service
-
Protéger une configuration d'équilibrage de charge contre les défaillances
-
-
Configurer des serveurs virtuels d'équilibrage de charge sans session
-
Réécriture des ports et des protocoles pour la redirection HTTP
-
Insérer l'adresse IP et le port d'un serveur virtuel dans l'en-tête de requête
-
Utiliser une adresse IP source spécifiée pour la communication backend
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Utiliser un port source à partir d'une plage de ports spécifiée pour la communication backend
-
Configurer la persistance de l'IP source pour les communications backend
-
-
Paramètres avancés d'équilibrage de charge
-
Protéger les applications sur les serveurs protégés contre les surtensions de trafic
-
Activer le nettoyage des connexions de serveur virtuel et de service
-
Activer ou désactiver la session de persistance sur les services TROFS
-
Activer la vérification de l'état TCP externe pour les serveurs virtuels UDP
-
Maintenir la connexion client pour plusieurs demandes client
-
Utiliser l'adresse IP source du client lors de la connexion au serveur
-
Définir une limite de nombre de requêtes par connexion au serveur
-
Définir une valeur de seuil pour les moniteurs liés à un service
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Définir une valeur de délai d'attente pour les connexions au serveur inactif
-
Définir une limite sur l'utilisation de la bande passante par les clients
-
Configurer les moniteurs dans une configuration d'équilibrage de charge
-
Configurer l'équilibrage de charge pour les protocoles couramment utilisés
-
Cas d'utilisation 3 : Configurer l'équilibrage de charge en mode de retour direct du serveur
-
Cas d'utilisation 4 : Configurer les serveurs LINUX en mode DSR
-
Cas d'utilisation 5 : Configurer le mode DSR lors de l'utilisation de TOS
-
Cas d'utilisation 7 : Configurer l'équilibrage de charge en mode DSR à l'aide d'IP sur IP
-
Cas d'utilisation 8 : Configurer l'équilibrage de charge en mode à un bras
-
Cas d'utilisation 9 : Configurer l'équilibrage de charge en mode Inline
-
Cas d'utilisation 10 : Équilibrage de la charge des serveurs du système de détection d'intrusion
-
Cas d'utilisation 11 : Isolation du trafic réseau à l'aide de stratégies d'écoute
-
Cas d'utilisation 12 : Configurer XenDesktop pour l'équilibrage de charge
-
Cas d'utilisation 13 : Configurer XenApp pour l'équilibrage de charge
-
Cas d'utilisation 14 : Assistant ShareFile pour l'équilibrage de charge Citrix ShareFile
-
-
Configurer pour source de trafic de données Citrix ADC FreeBSD à partir d'une adresse SNIP
-
Déchargement et accélération SSL
-
Prise en charge du protocole TLSv1.3 tel que défini dans la RFC 8446
-
Suites de chiffrement disponibles sur les appliances Citrix ADC
-
Matrice de prise en charge des certificats de serveur sur l'appliance ADC
-
Prise en charge du module de sécurité matérielle du réseau Gemalto SafeNet
-
-
-
-
Authentification et autorisation pour les utilisateurs du système
-
Configuration des utilisateurs, des groupes d'utilisateurs et des stratégies de commande
-
Réinitialisation du mot de passe administrateur par défaut (nsroot)
-
Configuration de l'authentification des utilisateurs externes
-
Authentification basée sur la clé SSH pour les administrateurs Citrix ADC
-
Authentification à deux facteurs pour les utilisateurs système
-
-
-
Configuration d'un tunnel de connecteur CloudBridge entre deux centres de données
-
Configuration de CloudBridge Connector entre Datacenter et AWS Cloud
-
Configuration d'un tunnel de connecteur CloudBridge entre un centre de données et Azure Cloud
-
Configuration du tunnel Connector CloudBridge entre Datacenter et SoftLayer Enterprise Cloud
-
-
Points à prendre en considération pour une configuration de haute disponibilité
-
Restriction du trafic de synchronisation haute disponibilité à un VLAN
-
Configuration des nœuds haute disponibilité dans différents sous-réseaux
-
Limitation des basculements causés par les moniteurs de routage en mode non-INC
-
Comprendre le calcul de la vérification de l'état de haute disponibilité
-
Gestion des messages de pulsation haute disponibilité sur une appliance Citrix ADC
-
Suppression et remplacement d'un Citrix ADC dans une configuration haute disponibilité
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Configuration de l’optimisation TCP
Avant de configurer l’optimisation TCP, appliquez les paramètres de configuration de base suivants sur l’appliance Citrix ADC :
Configuration initiale :
enable ns feature LB IPv6PT
enable ns mode FR L3 USIP MBF Edge USNIP PMTUD
disable ns feature SP
disable ns mode TCPB
set lb parameter -preferDirectRoute NO
set lb parameter -vServerSpecificMac ENABLED
set l4param -l2ConnMethod Vlan
set rsskeytype -rsstype SYMMETRIC
set ns param -useproxyport DISABLED
Remarque
Redémarrez l’appliance Citrix ADC si vous modifiez le paramètre système rsskeytype.
Résiliation TCP
Pour que Citrix ADC T1 applique l’optimisation TCP, il doit d’abord mettre fin au trafic TCP entrant. À cette fin, un serveur TCP générique doit être créé et configuré pour intercepter le trafic entrant, puis le transférer au routeur Internet.
Environnement de routage statique ou dynamique
Pour les environnements avec routage statique ou dynamique en place, vserver peut compter sur les informations de la table de routage pour transférer les paquets vers le routeur Internet. Route par défaut doit pointer vers le routeur Internet et aussi les entrées de routage pour les sous-réseaux clients vers le routeur sans fil doivent être en place :
Exemple :
add lb vserver vsrv-wireless TCP * * -persistenceType NONE -Listenpolicy "CLIENT.VLAN.ID.EQ(100) && SYS.VSERVER("vsrv-wireless").STATE.EQ(UP)" -m IP -cltTimeout 9000
add route 0.0.0.0 0.0.0.0 192.168.2.1
add route 10.0.0.0 255.0.0.0 192.168.1.1
Environnement VLAN à VLAN (PBR)
Il existe des environnements clients où le trafic d’abonnés est segmenté en plusieurs flux et doit être transféré à différents routeurs en fonction des paramètres de trafic entrant. Le routage basé sur la stratégie (PBR) peut être utilisé pour router des paquets en fonction des paramètres de paquets entrants, tels que VLAN, adresse MAC, interface, adresse IP source, port source, adresse IP de destination et port de destination.
Exemple :
add lb vserver vsrv-wireless TCP * * -m IP -l2Conn ON -listenpolicy "CLIENT.VLAN.ID.EQ(100) || CLIENT.VLAN.ID.EQ(101) || CLIENT.VLAN.ID.EQ(102)"
add ns pbr pbr-vlan100-to-vlan200 ALLOW -vlan 100 -nexthop 172.16.200.1
add ns pbr pbr-vlan101-to-vlan201 ALLOW -vlan 101 -nexthop 172.16.201.1
add ns pbr pbr-vlan102-to-vlan202 ALLOW -vlan 102 -nexthop 172.16.202.1
L’utilisation du routage basé sur des stratégies pour acheminer le trafic optimisé TCP est une nouvelle fonctionnalité ajoutée dans la version 11.1 50.10. Pour les versions précédentes, avoir plusieurs entités vserver « mode MAC » par VLAN est une solution alternative pour les environnements multi-VLAN. Chaque serveur vserver a un service lié représentant le routeur Internet pour le flux particulier.
Exemple :
add server internet_router_1 172.16.200.1
add server internet_router_2 172.16.201.1
add server internet_router_3 172.16.202.1
add service svc-internet-1 internet_router_1 TCP * -usip YES -useproxyport NO
add service svc-internet-2 internet_router_2 TCP * -usip YES -useproxyport NO
add service svc-internet-3 internet_router_3 TCP * -usip YES -useproxyport NO
bind service svc-internet-1 -monitorName arp
bind service svc-internet-2 -monitorName arp
bind service svc-internet-3 -monitorName arp
add lb vserver vsrv-wireless-1 TCP * * -Listenpolicy "CLIENT.VLAN.ID.EQ(100) && SYS.VSERVER("vsrv-wireless-1").STATE.EQ(UP)" -m MAC -l2Conn ON
add lb vserver vsrv-wireless-2 TCP * * -Listenpolicy "CLIENT.VLAN.ID.EQ(101) && SYS.VSERVER("vsrv-wireless-2").STATE.EQ(UP)" -m MAC -l2Conn ON
add lb vserver vsrv-wireless-3 TCP * * -Listenpolicy "CLIENT.VLAN.ID.EQ(102) && SYS.VSERVER("vsrv-wireless-3").STATE.EQ(UP)" -m MAC -l2Conn ON
bind lb vserver vsrv-wireless-1 svc-internet-1
bind lb vserver vsrv-wireless-2 svc-internet-2
bind lb vserver vsrv-wireless-3 svc-internet-3
Remarque :
Le mode vserver est MAC contrairement aux exemples précédents où il s’agit d’un mode IP. Ceci est nécessaire pour conserver les informations IP de destination lorsque nous avons des services liés à vserver. En outre, la configuration PBR supplémentaire doit acheminer le trafic non optimisé.
Optimisation TCP
La terminaison TCP Citrix ADC prête à l’emploi est configurée pour la fonctionnalité de transmission TCP. La transmission TCP signifie essentiellement que Citrix ADC T1 peut intercepter de manière transparente un flux TCP client-serveur mais ne conserve pas de tampons client-serveur distincts ou n’applique aucune technique d’optimisation.
Pour activer l’optimisation TCP, un profil TCP, nommé nstcpprofile, est utilisé pour spécifier les configurations TCP utilisées si aucune configuration TCP n’est fournie au niveau du service ou du serveur virtuel et qu’il doit être modifié comme suit :
Commande :
add ns tcpProfile nstcpprofile -WS ENABLED -SACK ENABLED -WSVal 8 -mss 1460 -maxBurst 30 -initialCwnd 16 -oooQSize 15000 -minRTO 800 -bufferSize 4000000 -flavor BIC -dynamicReceiveBuffering ENABLED -KA ENABLED -sendBuffsize 4000000 -rstWindowAttenuate ENABLED -spoofSynDrop ENABLED -ecn ENABLED -frto ENABLED -maxcwnd 1000000 -fack ENABLED -rstMaxAck enABLED -tcpmode ENDPOINT
Remarque :
S’il n’y a pas de profil explicitement créé et lié à vserver et service, le profil nstcp_default_profile est lié par défaut.
En cas de besoin de plusieurs profils TCP, des profils TCP supplémentaires peuvent être créés et associés au serveur virtuel approprié
Commande :
add ns tcpProfile custom_profile -WS ENABLED -SACK ENABLED -WSVal 8 -mss 1460 -maxBurst 30 -initialCwnd 16 -oooQSize 15000 -minRTO 800 -bufferSize 4000000 -flavor BIC -dynamicReceiveBuffering ENABLED -KA ENABLED -sendBuffsize 4000000 -rstWindowAttenuate ENABLED -spoofSynDrop ENABLED -ecn ENABLED -frto ENABLED -maxcwnd 1000000 -fack ENABLED -rstMaxAck enABLED -tcpmode ENDPOINT
set lb vserver vsrv-wireless -tcpProfileName custom_profile
Remarque :
Pour les déploiements avec vserver -m MAC et service, le même profil doit être associé au service.
set service svc-internet -tcpProfileName custom_profile
Fonctionnalités d’optimisation TCP
La plupart des fonctionnalités d’optimisation TCP pertinentes d’une appliance Citrix ADC sont exposées via un profil TCP correspondant. Les paramètres CLI typiques qui doivent être pris en compte lors de la création d’un profil TCP sont les suivants :
- Fenêtre Scaling (WS) : La mise à l’échelle de fenêtre TCP permet d’augmenter la taille de fenêtre de réception TCP au-delà de 65535 octets. Il aide à améliorer les performances TCP en général et en particulier dans les réseaux à large bande passante et à long retard. Il aide à réduire la latence et à améliorer le temps de réponse sur TCP.
- Accusé de réception sélectif (SACK) : TCP SACK résout le problème de la perte de plusieurs paquets qui réduit la capacité globale de débit. Avec un accusé de réception sélectif, le destinataire peut informer l’expéditeur de tous les segments qui sont reçus avec succès, ce qui permet à l’expéditeur de ne retransmettre que les segments perdus. Cette technique permet à T1 d’améliorer le débit global et de réduire la latence de connexion.
- Facteur de mise à l’échelle de la fenêtre (WSVal) : Facteur utilisé pour calculer la nouvelle taille de la fenêtre. Il doit être configuré avec une valeur élevée afin de permettre à la fenêtre annoncée par NS d’être au moins égale à la taille du tampon.
- Taille maximale du segment (MSS) : MSS d’un seul segment TCP. Cette valeur dépend du paramètre MTU sur les routeurs intermédiaires et les clients finaux. Une valeur de 1460 correspond à une MTU de 1500.
- MaxBurst : nombre maximal de segments TCP autorisés dans une rafale.
- Taille de la fenêtre de congestion initiale (InitialCwnd) : La taille de la fenêtre de congestion initiale TCP détermine le nombre d’octets qui peuvent être en attente au début de la transaction. Il permet à T1 d’envoyer ces nombreux octets sans se soucier de la congestion sur le fil.
- Taille maximale de la file d’attente de paquets OOO (oooQSize) : TCP maintient la file d’attente hors ordre pour conserver les paquets OOO dans la communication TCP. Ce paramètre affecte la mémoire système si la taille de la file d’attente est longue que les paquets doivent être conservés dans la mémoire d’exécution. Cela doit donc être maintenu à un niveau optimisé basé sur le type de caractéristiques de réseau et d’application.
- RTO minimum (MinRTO) : Le délai d’expiration de retransmission TCP est calculé sur chaque ACK reçu en fonction de la logique d’implémentation interne. Le délai d’expiration de retransmission par défaut se produit à 1 seconde pour commencer et cela peut être modifié avec ce paramètre. Pour la seconde retransmission de ces paquets RTO sera calculé par N*2, puis N*4… N*8… continue jusqu’à la dernière tentative de retransmission.
- BufferSize/sendBuffSize : ils font référence à la quantité maximale de données que le T1 peut recevoir du serveur et de la mémoire tampon en interne sans envoyer au client. Ils doivent être définis sur une valeur supérieure (au moins double) au produit de retard de bande passante du canal de transmission sous-jacent.
- saveur : cela fait référence à l’algorithme de contrôle de la congestion TCP. Les valeurs valides sont Default, BIC, CUBIC, Westwood et Nile.
- Mémoiretampon de réception dynamique : permet d’ajuster dynamiquement le tampon de réception en fonction des conditions de mémoire et de réseau. Il remplira le tampon autant qu’il est nécessaire pour garder le canal de téléchargement du client plein au lieu de remplir, en lisant à l’avance à partir du serveur, un tampon de taille fixe, tel que celui-ci est spécifié dans le profil TCP et généralement basé sur des critères tels que 2*BDP, pour une connexion. Citrix ADC T1 surveille les conditions réseau au client et estime combien il doit lire à l’avance à partir du serveur.
- Keep-Alive (KA) : Envoyez périodiquement des sondes TCP keep-alive (KA) pour vérifier si l’homologue est toujours actif.
- rstWindowAttenuate : Défense de TCP contre les attaques d’usurpation d’identité. Il répondra avec ACK correctif lorsqu’un numéro de séquence n’est pas valide.
- rstMaxAck : Activer ou désactiver l’acceptation de RST qui est hors de la fenêtre tout en faisant écho au numéro de séquence ACK le plus élevé.
- spoofSynDrop : suppression de paquets SYN non valides pour se protéger contre l’usurpation.
- Explicit Congestion Notification(ecn) : Il envoie une notification de l’état de congestion réseau à l’expéditeur des données et prend des mesures correctives pour la congestion des données ou la corruption des données.
- Forward RTO-Recovery : En cas de retransmissions fausses, les configurations de contrôle de congestion sont rétablies à leur état d’origine.
- TCP maximum congestion window (maxcwnd) : taille de fenêtre de congestion maximale TCP configurable par l’utilisateur.
- Forward acknowledgment (FACK) : Pour éviter la congestion TCP en mesurant explicitement le nombre total d’octets de données en attente dans le réseau et en aidant l’expéditeur (T1 ou un client) à contrôler la quantité de données injectées dans le réseau pendant les délais de retransmission.
- tcpmode : modes d’optimisation TCP pour un profil spécifique. Il existe deux modes d’optimisation TCP - Transparent et Endpoint.
- Point de terminaison. Dans ce mode, l’appliance gère les connexions client et serveur séparément.
- Transparent. En mode transparent, les clients doivent accéder directement aux serveurs, sans serveur virtuel intermédiaire. Les adresses IP du serveur doivent être publiques car les clients doivent pouvoir y accéder. Dans l’exemple illustré dans la figure suivante, une appliance NetScaler est placée entre le client et le serveur, de sorte que le trafic doit passer par l’appliance.
Lâche silencieuse des connexions inactives
Dans un réseau de télécommunications, près de 50 % des connexions TCP d’une appliance Citrix ADC deviennent inactives et l’appliance envoie des paquets RST pour les fermer. Les paquets envoyés sur des canaux radio activent ces canaux inutilement, provoquant un flot de messages qui, à leur tour, provoquent un flot de messages de rejet de service à l’appliance. Le profil TCP par défaut inclut désormais les paramètres DropHALFClosedConnonTimeout et DropestConnonTimeout, qui sont désactivés par défaut. Si vous les activez tous les deux, ni une connexion semi-fermée ni une connexion établie ne provoque l’envoi d’un paquet RST au client lorsque la connexion expire. L’appliance abandonne simplement la connexion.
set ns tcpProfile nstcpprofile -DropHalfClosedConnOnTimeout ENABLED
set ns tcpProfile nstcpprofile -DropEstConnOnTimeout ENABLED
Partager
Partager
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.