-
Bereitstellen einer Citrix ADC VPX-Instanz
-
Installieren einer Citrix ADC VPX Instanz auf einem Bare-Metal-Server
-
Installieren einer Citrix ADC VPX-Instanz auf Citrix Hypervisor
-
Installieren einer Citrix ADC VPX Instanz in VMware Cloud auf AWS
-
Installieren einer Citrix ADC VPX Instanz auf Microsoft Hyper-V-Servern
-
Installieren einer Citrix ADC VPX-Instanz auf der Linux-KVM-Plattform
-
Bereitstellen der virtuellen Citrix ADC Appliance mit OpenStack
-
Bereitstellen der Citrix ADC Virtual Appliance mit Virtual Machine Manager
-
Konfigurieren virtueller Citrix ADC Appliances für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Bereitstellen der virtuellen Citrix ADC Appliance mit dem Virsh-Programm
-
Bereitstellen der virtuellen Citrix ADC Appliance mit SR-IOV auf OpenStack
-
Bereitstellen einer Citrix ADC VPX-Instanz auf AWS
-
Bereitstellen einer eigenständigen Citrix ADC VPX-Instanz in AWS
-
Bereitstellen eines hochverfügbaren VPX-Paars mit elastischen IP-Adressen in verschiedenen AWS-Zonen
-
Bereitstellen eines hochverfügbaren VPX-Paars mit privaten IP-Adressen in verschiedenen AWS-Zonen
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung von Enhanced Networking mit AWS ENA
-
Bereitstellen einer Citrix ADC VPX Instanz in Microsoft Azure
-
Netzwerkarchitektur für Citrix ADC VPX-Instanzen in Microsoft Azure
-
Konfigurieren mehrerer IP-Adressen für eine eigenständige Citrix ADC VPX-Instanz
-
Konfigurieren eines Hochverfügbarkeitssetups mit mehreren IP-Adressen und Netzwerkkarten
-
Konfigurieren einer Citrix ADC VPX-Instanz für beschleunigte Azure-Netzwerke
-
Konfigurieren von HA-INC-Knoten mit der Citrix Hochverfügbarkeitsvorlage mit Azure ILB
-
Konfigurieren von GSLB auf einem Hochverfügbarkeits-Setup mit aktivem Standby-Modus
-
Konfigurieren von Adresspools (IIP) für eine Citrix Gateway Appliance
-
Zusätzliche PowerShell -Skripts für die Azure-Bereitstellung
-
Bereitstellen einer Citrix ADC VPX-Instanz auf der Google Cloud Platform
-
Automatisieren der Bereitstellung und Konfiguration von Citrix ADC
-
Upgrade und Downgrade einer Citrix ADC Appliance
-
Lösungen für Telekommunikationsdienstleister
-
Lastausgleich Control-Ebenenverkehr, der auf Durchmesser-, SIP- und SMPP-Protokollen basiert
-
Authentifizierung, Autorisierung und Auditing des Anwendungsdatenverkehrs
-
Funktionsweise von Authentifizierung, Autorisierung und Auditing
-
Grundkomponenten der Authentifizierungs-, Autorisierungs- und Überwachungskonfiguration
-
On-Premises Citrix Gateway als Identitätsanbieter für Citrix Cloud
-
Konfigurationsunterstützung für das Cookie-Attribut SameSite
-
Authentifizierung, Autorisierung und Auditing-Konfiguration für häufig verwendete Protokolle
-
Beheben von Problemen mit Authentifizierung und Autorisierung
-
-
-
-
Konfigurieren des erweiterten Richtlinienausdrucks: Erste Schritte
-
Erweiterte Richtlinienausdrücke: Arbeiten mit Datumsangaben, Uhrzeiten und Zahlen
-
Erweiterte Richtlinienausdrücke: Analysieren von HTTP-, TCP- und UDP-Daten
-
Erweiterte Richtlinienausdrücke: Analysieren von SSL-Zertifikaten
-
Erweiterte Richtlinienausdrücke: IP- und MAC-Adressen, Durchsatz, VLAN-IDs
-
Erweiterte Richtlinienausdrücke: Stream Analytics-Funktionen
-
Zusammenfassende Beispiele für Standard-Syntaxausdrücke und -richtlinien
-
Tutorialbeispiele für Standard-Syntaxrichtlinien für das Umschreiben
-
Migration von Apache mod_rewrite Regeln auf die Standardsyntax
-
-
-
-
-
Verwalten eines virtuellen Cache-Umleitungsservers
-
Statistiken zum virtuellen Server zur Cache-Umleitung anzeigen
-
Aktivieren oder Deaktivieren eines virtuellen Cache-Umleitungsservers
-
Direkter Richtlinientreffer in den Cache anstelle des Ursprungs
-
Verwalten von Clientverbindungen für einen virtuellen Server
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
-
Ziel-IP-Adresse einer Anforderung in Ursprungs-IP-Adresse übersetzen
-
-
-
Konfigurieren von Citrix ADC als nicht validierenden, sicherheitsbezogene Stub-Resolver
-
Jumbo-Frames-Unterstützung für DNS, um Antworten großer Größen zu verarbeiten
-
Konfigurieren der negativen Zwischenspeicherung von DNS-Einträgen
-
-
GSLB-Entitäten einzeln konfigurieren
-
Anwendungsfall: Bereitstellung einer Domainnamen-basierten Autoscale-Dienstgruppe
-
Anwendungsfall: Bereitstellung einer IP-adressbasierten Autoscale-Service-Gruppe
-
-
Verwalten des Client-Datenverkehrs
-
Konfigurieren von virtuellen Servern ohne Sitzungsaufwand für den Lastenausgleich
-
IP-Adresse und Port eines virtuellen Servers in den Request-Header einfügen
-
Verwenden einer angegebenen Quell-IP für die Backend-Kommunikation
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Verwalten des Client-Datenverkehrs auf der Grundlage der Datenverkehrsrate
-
Verwenden eines Quellports aus einem angegebenen Portbereich für die Backend-Kommunikation
-
Konfigurieren der Quell-IP-Persistenz für die Backend-Kommunikation
-
Verwenden von lokalen IPv6-Link-Adressen auf Serverseite eines Lastausgleichs-Setups
-
-
Erweiterte Lastenausgleichseinstellungen
-
Schützen von Anwendungen auf geschützten Servern vor Überlastung des Datenverkehrs
-
Bereinigung von virtuellen Server- und Dienstverbindungen aktivieren
-
Aktivieren oder Deaktivieren der Persistenzsitzung auf TROFS-Diensten
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
Verwalten der Clientverbindung für mehrere Clientanforderungen
-
Standortdetails von der Benutzer-IP-Adresse mit der Geolocation-Datenbank abrufen
-
Verwenden der Quell-IP-Adresse des Clients für die Verbindung zum Server
-
Festlegen eines Grenzwerts für die Anzahl der Clientverbindungen
-
Festlegen eines Grenzwerts für die Anzahl der Anforderungen pro Verbindung zum Server
-
Festlegen eines Schwellenwerts für die an einen Dienst gebundenen Monitore
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Festlegen eines Zeitüberschreitungswertes für Serververbindungen im Leerlauf
-
Festlegen eines Grenzwerts für die Bandbreitenauslastung durch Clients
-
Konfigurieren des Lastenausgleichs für häufig verwendete Protokolle
-
Anwendungsfall 3: Konfigurieren des Lastausgleichs im Direktserverrückgabemodus
-
Anwendungsfall 4: Konfigurieren von LINUX-Servern im DSR-Modus
-
Anwendungsfall 5: Konfigurieren des DSR-Modus bei Verwendung von TOS
-
Anwendungsfall 6: Konfigurieren des Lastausgleichs im DSR-Modus für IPv6-Netzwerke über das TOS-Feld
-
Anwendungsfall 7: Konfigurieren des Lastausgleichs im DSR-Modus mit IP over IP
-
Anwendungsfall 8: Lastausgleich im Einarmmodus konfigurieren
-
Anwendungsfall 9: Konfigurieren des Lastausgleichs im Inline-Modus
-
Anwendungsfall 10: Lastausgleich von Intrusion Detection Systemservern
-
Anwendungsfall 11: Isolieren des Netzwerkverkehrs mit Listening-Richtlinien
-
Anwendungsfall 12: Konfigurieren von XenDesktop für den Lastenausgleich
-
Anwendungsfall 13: Konfigurieren von XenApp für den Lastenausgleich
-
Anwendungsfall 14: ShareFile Assistent für den Lastenausgleich von Citrix ShareFile
-
SSL-Offload und Beschleunigung
-
Unterstützung für Intel Coleto SSL-Chip-basierte Plattformen
-
Unterstützung für Gemalto SafeNet Network Hardwaresicherheitsmodul
-
-
-
-
Konfigurieren eines CloudBridge Connector-Tunnels zwischen zwei Rechenzentren
-
Konfigurieren von CloudBridge Connector zwischen Datacenter und AWS Cloud
-
Konfigurieren eines CloudBridge-Connector-Tunnels zwischen einem Datacenter und Azure Cloud
-
Konfigurieren des CloudBridge Connector-Tunnels zwischen Datacenter und SoftLayer Enterprise Cloud
-
-
Punkte, die für ein Hochverfügbarkeits-Setup berücksichtigt werden müssen
-
Synchronisieren von Konfigurationsdateien in einem Hochverfügbarkeitssetup
-
Beschränken des Hochverfügbarkeitssynchronisierungsverkehrs auf ein VLAN
-
Konfigurieren von Hochverfügbarkeitsknoten in verschiedenen Subnetzen
-
Beschränken von Failovers durch Routenmonitore im Nicht-INC-Modus
-
Verwalten von Heartbeat-Nachrichten mit hoher Verfügbarkeit auf einer Citrix ADC Appliance
-
Entfernen und Ersetzen eines Citrix ADC in einem Hochverfügbarkeit-Setup
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
TCP-Optimierungskonfiguration
Wenden Sie vor der Konfiguration der TCP-Optimierung die folgenden grundlegenden Konfigurationseinstellungen auf der Citrix ADC Appliance an:
Erstkonfiguration:
enable ns feature LB IPv6PT
enable ns mode FR L3 USIP MBF Edge USNIP PMTUD
disable ns feature SP
disable ns mode TCPB
set lb parameter -preferDirectRoute NO
set lb parameter -vServerSpecificMac ENABLED
set l4param -l2ConnMethod Vlan
set rsskeytype -rsstype SYMMETRIC
set ns param -useproxyport DISABLED
Hinweis:
Starten Sie die Citrix ADC Appliance neu, wenn Sie den Systemparameter rsskeytype ändern.
TCP-Beendigung
Damit Citrix ADC T1 TCP-Optimierung anwenden kann, muss der eingehende TCP-Datenverkehr zuerst beendet werden. Zu diesem Zweck sollte ein Platzhalter-TCP-vserver erstellt und konfiguriert werden, um eingehenden Datenverkehr abzufangen und dann an den Internet-Router weiterzuleiten.
Statische oder dynamische Routing-Umgebung
In Umgebungen mit statischem oder dynamischem Routing kann vserver auf Routingtabelleninformationen verlassen, um Pakete an den Internet-Router weiterzuleiten. Die Standardroute muss auf den Internet-Router zeigen und auch Routingeinträge für Client-Subnetze zum drahtlosen Router sollten vorhanden sein:
Beispiel:
add lb vserver vsrv-wireless TCP * * -persistenceType NONE -Listenpolicy "CLIENT.VLAN.ID.EQ(100) && SYS.VSERVER("vsrv-wireless").STATE.EQ(UP)" -m IP -cltTimeout 9000
add route 0.0.0.0 0.0.0.0 192.168.2.1
add route 10.0.0.0 255.0.0.0 192.168.1.1
VLAN-zu-VLAN-Umgebung (PBR)
Es gibt Kundenumgebungen, in denen Teilnehmerdatenverkehr in mehrere Flows segmentiert wird und basierend auf eingehenden Datenverkehrsparametern an verschiedene Router weitergeleitet werden muss. Policy Based Routing (PBR) kann verwendet werden, um Pakete basierend auf eingehenden Paketparametern wie VLAN, MAC-Adresse, Schnittstelle, Quell-IP, Quell-Port, Ziel-IP-Adresse und Ziel-Port weiterzuleiten.
Beispiel:
add lb vserver vsrv-wireless TCP * * -m IP -l2Conn ON -listenpolicy "CLIENT.VLAN.ID.EQ(100) || CLIENT.VLAN.ID.EQ(101) || CLIENT.VLAN.ID.EQ(102)"
add ns pbr pbr-vlan100-to-vlan200 ALLOW -vlan 100 -nexthop 172.16.200.1
add ns pbr pbr-vlan101-to-vlan201 ALLOW -vlan 101 -nexthop 172.16.201.1
add ns pbr pbr-vlan102-to-vlan202 ALLOW -vlan 102 -nexthop 172.16.202.1
Die Verwendung von richtlinienbasiertem Routing zur Weiterleitung von TCP-optimiertem Datenverkehr ist eine neue Funktion, die in Version 11.1 50.10 hinzugefügt wurde. Für frühere Versionen ist die Verwendung mehrerer Modus MAC -vServer-Entitäten pro VLAN eine alternative Lösung für Multi-VLAN-Umgebungen. Jeder vserver verfügt über einen gebundenen Dienst, der den Internet-Router für den jeweiligen Fluss darstellt.
Beispiel:
add server internet_router_1 172.16.200.1
add server internet_router_2 172.16.201.1
add server internet_router_3 172.16.202.1
add service svc-internet-1 internet_router_1 TCP * -usip YES -useproxyport NO
add service svc-internet-2 internet_router_2 TCP * -usip YES -useproxyport NO
add service svc-internet-3 internet_router_3 TCP * -usip YES -useproxyport NO
bind service svc-internet-1 -monitorName arp
bind service svc-internet-2 -monitorName arp
bind service svc-internet-3 -monitorName arp
add lb vserver vsrv-wireless-1 TCP * * -Listenpolicy "CLIENT.VLAN.ID.EQ(100) && SYS.VSERVER("vsrv-wireless-1").STATE.EQ(UP)" -m MAC -l2Conn ON
add lb vserver vsrv-wireless-2 TCP * * -Listenpolicy "CLIENT.VLAN.ID.EQ(101) && SYS.VSERVER("vsrv-wireless-2").STATE.EQ(UP)" -m MAC -l2Conn ON
add lb vserver vsrv-wireless-3 TCP * * -Listenpolicy "CLIENT.VLAN.ID.EQ(102) && SYS.VSERVER("vsrv-wireless-3").STATE.EQ(UP)" -m MAC -l2Conn ON
bind lb vserver vsrv-wireless-1 svc-internet-1
bind lb vserver vsrv-wireless-2 svc-internet-2
bind lb vserver vsrv-wireless-3 svc-internet-3
Hinweis:
Der vserver-Modus ist MAC im Gegensatz zu früheren Beispielen, bei denen es sich um Mode IP handelt. Dies ist erforderlich, um die Ziel-IP-Informationen beizubehalten, wenn wir Dienste an vserver gebunden haben. Außerdem muss die zusätzliche PBR-Konfiguration nicht optimierten Datenverkehr weitergeleitet werden.
TCP-Optimierung
Die vorkonfigurierte Citrix ADC TCP-Beendigung ist für die TCP-Passthrough-Funktionalität konfiguriert. TCP-Pass-Through bedeutet im Wesentlichen, dass Citrix ADC T1 einen Client-Server-TCP-Stream transparent abfangen kann, aber keine separaten Client/Server-Puffer behält oder anderweitig Optimierungstechniken angewendet werden.
Um die TCP-Optimierung zu aktivieren, wird ein TCP-Profil mit dem Namen nstcpprofile verwendet, um TCP-Konfigurationen anzugeben, die verwendet werden, wenn keine TCP-Konfigurationen auf Dienst- oder virtueller Serverebene bereitgestellt werden, und es sollte wie folgt geändert werden:
Befehl:
add ns tcpProfile nstcpprofile -WS ENABLED -SACK ENABLED -WSVal 8 -mss 1460 -maxBurst 30 -initialCwnd 16 -oooQSize 15000 -minRTO 800 -bufferSize 4000000 -flavor BIC -dynamicReceiveBuffering ENABLED -KA ENABLED -sendBuffsize 4000000 -rstWindowAttenuate ENABLED -spoofSynDrop ENABLED -ecn ENABLED -frto ENABLED -maxcwnd 1000000 -fack ENABLED -rstMaxAck enABLED -tcpmode ENDPOINT
Hinweis:
Wenn kein Profil explizit erstellt und an vserver und service gebunden ist, ist das Profil nstcp_default_profile standardmäßig gebunden.
Bei mehreren TCP-Profilen können zusätzliche TCP-Profile erstellt und mit dem entsprechenden virtuellen Server verknüpft werden.
Befehl:
add ns tcpProfile custom_profile -WS ENABLED -SACK ENABLED -WSVal 8 -mss 1460 -maxBurst 30 -initialCwnd 16 -oooQSize 15000 -minRTO 800 -bufferSize 4000000 -flavor BIC -dynamicReceiveBuffering ENABLED -KA ENABLED -sendBuffsize 4000000 -rstWindowAttenuate ENABLED -spoofSynDrop ENABLED -ecn ENABLED -frto ENABLED -maxcwnd 1000000 -fack ENABLED -rstMaxAck enABLED -tcpmode ENDPOINT
set lb vserver vsrv-wireless -tcpProfileName custom_profile
Hinweis:
Bei Bereitstellungen mit vserver -m MAC und Service sollte dasselbe Profil dem Dienst zugeordnet werden.
set service svc-internet -tcpProfileName custom_profile
TCP-Optimierungsfunktionen
Die meisten relevanten TCP-Optimierungsfunktionen einer Citrix ADC Appliance werden über ein entsprechendes TCP-Profil bereitgestellt. Typische CLI-Parameter, die beim Erstellen eines TCP-Profils berücksichtigt werden sollten, sind die folgenden:
- Window Scaling (WS): Die TCP-Fensterskalierung ermöglicht die Erhöhung der TCP-Empfangsfenstergröße über 65535 Bytes hinaus. Es hilft, die TCP-Leistung insgesamt und speziell in Netzwerken mit hoher Bandbreite und langer Verzögerung zu verbessern. Es hilft, die Latenz zu reduzieren und die Reaktionszeit über TCP zu verbessern.
- Selective Acknowledgment (SACK): TCP SACK löst das Problem des Mehrfachpaketverlustes, wodurch die Gesamtdurchsatzkapazität reduziert wird. Mit selektiver Quittierung kann der Empfänger den Absender über alle erfolgreich empfangenen Segmente informieren, sodass der Absender nur die verlorenen Segmente weiterleiten kann. Diese Technik hilft T1, den Gesamtdurchsatz zu verbessern und die Verbindungslatenz zu reduzieren.
- Window Scaling Factor (WSVal): Faktor, der zur Berechnung der neuen Fenstergröße verwendet wird. Es muss mit einem hohen Wert konfiguriert werden, damit das angekündigte Fenster von NS mindestens der Puffergröße entspricht.
- Maximale Segmentgröße (MSS): MSS eines einzelnen TCP-Segments. Dieser Wert hängt von der MTU-Einstellung auf Zwischenroutern und Endclients ab. Ein Wert von 1460 entspricht einer MTU von 1500.
- MaxBurst: Maximale Anzahl zulässiger TCP-Segmente in einer Aufgliederung.
- Initial Congestion Window Size (InitialCWnd): Die Größe des anfänglichen TCP-Staufensters bestimmt die Anzahl der Bytes, die zu Beginn der Transaktion ausstehen können. Es ermöglicht T1, diese vielen Bytes zu senden, ohne sich für Staus auf der Leitung zu belästigen.
- Maximale Größe der OOO-Paketwarteschlange (OOQSize): TCP verwaltet die Warteschlange Out Of Order, um die OOO-Pakete in der TCP-Kommunikation beizubehalten. Diese Einstellung wirkt sich auf den Systemspeicher aus, wenn die Warteschlangengröße lang ist, wie die Pakete im Laufzeitspeicher aufbewahrt werden müssen. Dies muss daher auf der Grundlage der Netzwerk- und Anwendungseigenschaften optimiert gehalten werden.
- Minimaler RTO (minRTO): Der TCP-Neuübertragungs-Timeout wird auf jeder empfangenen ACK basierend auf der internen Implementierungslogik berechnet. Das Standard-Timeout für die erneute Übertragung erfolgt bei 1 Sekunde, um mit zu beginnen und dies kann mit dieser Einstellung optimiert werden. Für die zweite Weiterleitung dieser Pakete wird RTO von N*2 berechnet und dann N*4… N*8… geht bis zum letzten erneuten Übermittlungsversuch weiter.
- BufferSize/SendBuffSize: Diese beziehen sich auf die maximale Datenmenge, die der T1 vom Server empfangen und intern Puffer empfangen kann, ohne an den Client zu senden. Sie sollten auf einen Wert gesetzt werden, der größer (mindestens doppelt) ist als das Bandbreitenverzögerungsprodukt des zugrunde liegenden Übertragungskanals.
- flavor: Dies bezieht sich auf den TCP-Staukontrollalgorithmus. Gültige Werte sind Default, BIC, CUBIC, Westwood und Nile.
- Dynamische Empfangspufferung: Ermöglicht die dynamische Anpassung des Empfangspuffers basierend auf Speicher- und Netzwerkbedingungen. Es füllt den Puffer so viel, wie es erforderlich ist, um die Download-Pipe des Clients voll zu halten, anstatt zu füllen, indem Sie vorab vom Server einen Puffer mit fester Größe lesen, wie letzterer im TCP-Profil angegeben ist und normalerweise auf Kriterien wie 2*BDP für eine Verbindung basiert. Citrix ADC T1 überwacht die Netzwerkbedingungen für den Client und schätzt, wie viel es vom Server vorgelesen werden soll.
- Keep-Alive (KA): Senden Sie periodische TCP-Keep-Alive-Prüfpunkte (KA), um zu überprüfen, ob Peer noch aktiv ist.
- RSTWindowAttenuate: Verteidigung von TCP gegen Spoofing-Angriffe. Es wird mit korrigierenden ACK antworten, wenn eine Sequenznummer ungültig ist.
- RstMaxack: Aktivieren oder deaktivieren Sie die Akzeptanz von RST, die außerhalb des Fensters ist, aber die höchste ACK-Sequenznummer widerspiegelt.
- SpoofSyndrop: Löschenungültiger SYN-Pakete zum Schutz vor Spoofing.
- Explizite Congestion Notification (ecn): Es sendet eine Benachrichtigung über den Netzwerkstau an den Absender der Daten und ergreift Korrekturmaßnahmen für Datenstaus oder Datenbeschädigung.
- Vorwärts-RTO-Recovery: Im Falle von unechten Wiederübertragungen werden die Congestion Control-Konfigurationen in ihren ursprünglichen Zustand zurückgesetzt.
- TCP-Maximalüberlastungsfenster (maxcwnd): Maximale TCP-Staufenstergröße, die vom Benutzer konfigurierbar ist.
- Forward Acknowledgment (FACK): Um TCP-Überlastung zu vermeiden, indem explizit die Gesamtzahl der im Netzwerk ausstehenden Datenbytes gemessen und dem Sender (entweder T1 oder einen Client) dabei geholfen wird, die Menge der Daten zu kontrollieren, die während der Zeitüberschreitung in das Netzwerk injiziert wurden.
- tcpmode: TCP-Optimierungsmodi für ein bestimmtes Profil. Es gibt zwei TCP-Optimierungsmodi - Transparent und Endpunkt.
- Endpunkt. In diesem Modus verwaltet die Appliance die Client- und Serververbindungen separat.
- Transparent. Im transparenten Modus müssen die Clients direkt auf die Server zugreifen, ohne den dazwischen liegenden virtuellen Server. Die Server-IP-Adressen müssen öffentlich sein, da die Clients darauf zugreifen können müssen. Im Beispiel in der folgenden Abbildung wird eine NetScaler Appliance zwischen dem Client und dem Server platziert, sodass der Datenverkehr durch die Appliance geleitet werden muss.
Leerlauf-Verbindungen stillschweigend löschen
In einem Telekommunikationsnetzwerk sind fast 50 Prozent der TCP-Verbindungen einer Citrix ADC Appliance im Leerlauf, und die Appliance sendet RST-Pakete, um sie zu schließen. Die über Funkkanäle gesendeten Pakete aktivieren diese Kanäle unnötig, was zu einer Flut von Nachrichten führt, die wiederum dazu führen, dass die Appliance eine Flut von Service-Reject-Nachrichten generiert. Das standardmäßige TCP-Profil enthält jetzt die Parameter DropHalfClosedConnOnTimeout und DropEstConnOnTimeout, die standardmäßig deaktiviert sind. Wenn Sie beide aktivieren, bewirkt weder eine halb geschlossene Verbindung noch eine etablierte Verbindung, dass ein RST-Paket an den Client gesendet wird, wenn die Verbindung Timeout. Die Appliance lässt die Verbindung einfach fallen.
set ns tcpProfile nstcpprofile -DropHalfClosedConnOnTimeout ENABLED
set ns tcpProfile nstcpprofile -DropEstConnOnTimeout ENABLED
Teilen
Teilen
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.