-
Bereitstellen einer Citrix ADC VPX-Instanz
-
Installieren einer Citrix ADC VPX Instanz auf einem Bare-Metal-Server
-
Installieren einer Citrix ADC VPX-Instanz auf Citrix Hypervisor
-
Installieren einer Citrix ADC VPX Instanz in VMware Cloud auf AWS
-
Installieren einer Citrix ADC VPX Instanz auf Microsoft Hyper-V-Servern
-
Installieren einer Citrix ADC VPX-Instanz auf der Linux-KVM-Plattform
-
Bereitstellen der virtuellen Citrix ADC Appliance mit OpenStack
-
Bereitstellen der Citrix ADC Virtual Appliance mit Virtual Machine Manager
-
Konfigurieren virtueller Citrix ADC Appliances für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Bereitstellen der virtuellen Citrix ADC Appliance mit dem Virsh-Programm
-
Bereitstellen der virtuellen Citrix ADC Appliance mit SR-IOV auf OpenStack
-
Bereitstellen einer Citrix ADC VPX-Instanz auf AWS
-
Bereitstellen einer eigenständigen Citrix ADC VPX-Instanz in AWS
-
Bereitstellen eines hochverfügbaren VPX-Paars mit elastischen IP-Adressen in verschiedenen AWS-Zonen
-
Bereitstellen eines hochverfügbaren VPX-Paars mit privaten IP-Adressen in verschiedenen AWS-Zonen
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung von Enhanced Networking mit AWS ENA
-
Bereitstellen einer Citrix ADC VPX Instanz in Microsoft Azure
-
Netzwerkarchitektur für Citrix ADC VPX-Instanzen in Microsoft Azure
-
Konfigurieren mehrerer IP-Adressen für eine eigenständige Citrix ADC VPX-Instanz
-
Konfigurieren eines Hochverfügbarkeitssetups mit mehreren IP-Adressen und Netzwerkkarten
-
Konfigurieren einer Citrix ADC VPX-Instanz für beschleunigte Azure-Netzwerke
-
Konfigurieren von HA-INC-Knoten mit der Citrix Hochverfügbarkeitsvorlage mit Azure ILB
-
Konfigurieren von GSLB auf einem Hochverfügbarkeits-Setup mit aktivem Standby-Modus
-
Konfigurieren von Adresspools (IIP) für eine Citrix Gateway Appliance
-
Zusätzliche PowerShell -Skripts für die Azure-Bereitstellung
-
Bereitstellen einer Citrix ADC VPX-Instanz auf der Google Cloud Platform
-
Automatisieren der Bereitstellung und Konfiguration von Citrix ADC
-
Upgrade und Downgrade einer Citrix ADC Appliance
-
Lösungen für Telekommunikationsdienstleister
-
Lastausgleich Control-Ebenenverkehr, der auf Durchmesser-, SIP- und SMPP-Protokollen basiert
-
Authentifizierung, Autorisierung und Auditing des Anwendungsdatenverkehrs
-
Funktionsweise von Authentifizierung, Autorisierung und Auditing
-
Grundkomponenten der Authentifizierungs-, Autorisierungs- und Überwachungskonfiguration
-
On-Premises Citrix Gateway als Identitätsanbieter für Citrix Cloud
-
Konfigurationsunterstützung für das Cookie-Attribut SameSite
-
Authentifizierung, Autorisierung und Auditing-Konfiguration für häufig verwendete Protokolle
-
Beheben von Problemen mit Authentifizierung und Autorisierung
-
-
-
-
Konfigurieren des erweiterten Richtlinienausdrucks: Erste Schritte
-
Erweiterte Richtlinienausdrücke: Arbeiten mit Datumsangaben, Uhrzeiten und Zahlen
-
Erweiterte Richtlinienausdrücke: Analysieren von HTTP-, TCP- und UDP-Daten
-
Erweiterte Richtlinienausdrücke: Analysieren von SSL-Zertifikaten
-
Erweiterte Richtlinienausdrücke: IP- und MAC-Adressen, Durchsatz, VLAN-IDs
-
Erweiterte Richtlinienausdrücke: Stream Analytics-Funktionen
-
Zusammenfassende Beispiele für Standard-Syntaxausdrücke und -richtlinien
-
Tutorialbeispiele für Standard-Syntaxrichtlinien für das Umschreiben
-
Migration von Apache mod_rewrite Regeln auf die Standardsyntax
-
-
-
-
-
Verwalten eines virtuellen Cache-Umleitungsservers
-
Statistiken zum virtuellen Server zur Cache-Umleitung anzeigen
-
Aktivieren oder Deaktivieren eines virtuellen Cache-Umleitungsservers
-
Direkter Richtlinientreffer in den Cache anstelle des Ursprungs
-
Verwalten von Clientverbindungen für einen virtuellen Server
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
-
Ziel-IP-Adresse einer Anforderung in Ursprungs-IP-Adresse übersetzen
-
-
-
Konfigurieren von Citrix ADC als nicht validierenden, sicherheitsbezogene Stub-Resolver
-
Jumbo-Frames-Unterstützung für DNS, um Antworten großer Größen zu verarbeiten
-
Konfigurieren der negativen Zwischenspeicherung von DNS-Einträgen
-
-
GSLB-Entitäten einzeln konfigurieren
-
Anwendungsfall: Bereitstellung einer Domainnamen-basierten Autoscale-Dienstgruppe
-
Anwendungsfall: Bereitstellung einer IP-adressbasierten Autoscale-Service-Gruppe
-
-
Verwalten des Client-Datenverkehrs
-
Konfigurieren von virtuellen Servern ohne Sitzungsaufwand für den Lastenausgleich
-
IP-Adresse und Port eines virtuellen Servers in den Request-Header einfügen
-
Verwenden einer angegebenen Quell-IP für die Backend-Kommunikation
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Verwalten des Client-Datenverkehrs auf der Grundlage der Datenverkehrsrate
-
Verwenden eines Quellports aus einem angegebenen Portbereich für die Backend-Kommunikation
-
Konfigurieren der Quell-IP-Persistenz für die Backend-Kommunikation
-
Verwenden von lokalen IPv6-Link-Adressen auf Serverseite eines Lastausgleichs-Setups
-
-
Erweiterte Lastenausgleichseinstellungen
-
Schützen von Anwendungen auf geschützten Servern vor Überlastung des Datenverkehrs
-
Bereinigung von virtuellen Server- und Dienstverbindungen aktivieren
-
Aktivieren oder Deaktivieren der Persistenzsitzung auf TROFS-Diensten
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
Verwalten der Clientverbindung für mehrere Clientanforderungen
-
Standortdetails von der Benutzer-IP-Adresse mit der Geolocation-Datenbank abrufen
-
Verwenden der Quell-IP-Adresse des Clients für die Verbindung zum Server
-
Festlegen eines Grenzwerts für die Anzahl der Clientverbindungen
-
Festlegen eines Grenzwerts für die Anzahl der Anforderungen pro Verbindung zum Server
-
Festlegen eines Schwellenwerts für die an einen Dienst gebundenen Monitore
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Festlegen eines Zeitüberschreitungswertes für Serververbindungen im Leerlauf
-
Festlegen eines Grenzwerts für die Bandbreitenauslastung durch Clients
-
Konfigurieren des Lastenausgleichs für häufig verwendete Protokolle
-
Anwendungsfall 3: Konfigurieren des Lastausgleichs im Direktserverrückgabemodus
-
Anwendungsfall 4: Konfigurieren von LINUX-Servern im DSR-Modus
-
Anwendungsfall 5: Konfigurieren des DSR-Modus bei Verwendung von TOS
-
Anwendungsfall 6: Konfigurieren des Lastausgleichs im DSR-Modus für IPv6-Netzwerke über das TOS-Feld
-
Anwendungsfall 7: Konfigurieren des Lastausgleichs im DSR-Modus mit IP over IP
-
Anwendungsfall 8: Lastausgleich im Einarmmodus konfigurieren
-
Anwendungsfall 9: Konfigurieren des Lastausgleichs im Inline-Modus
-
Anwendungsfall 10: Lastausgleich von Intrusion Detection Systemservern
-
Anwendungsfall 11: Isolieren des Netzwerkverkehrs mit Listening-Richtlinien
-
Anwendungsfall 12: Konfigurieren von XenDesktop für den Lastenausgleich
-
Anwendungsfall 13: Konfigurieren von XenApp für den Lastenausgleich
-
Anwendungsfall 14: ShareFile Assistent für den Lastenausgleich von Citrix ShareFile
-
SSL-Offload und Beschleunigung
-
Unterstützung für Intel Coleto SSL-Chip-basierte Plattformen
-
Unterstützung für Gemalto SafeNet Network Hardwaresicherheitsmodul
-
-
-
-
Konfigurieren eines CloudBridge Connector-Tunnels zwischen zwei Rechenzentren
-
Konfigurieren von CloudBridge Connector zwischen Datacenter und AWS Cloud
-
Konfigurieren eines CloudBridge-Connector-Tunnels zwischen einem Datacenter und Azure Cloud
-
Konfigurieren des CloudBridge Connector-Tunnels zwischen Datacenter und SoftLayer Enterprise Cloud
-
-
Punkte, die für ein Hochverfügbarkeits-Setup berücksichtigt werden müssen
-
Synchronisieren von Konfigurationsdateien in einem Hochverfügbarkeitssetup
-
Beschränken des Hochverfügbarkeitssynchronisierungsverkehrs auf ein VLAN
-
Konfigurieren von Hochverfügbarkeitsknoten in verschiedenen Subnetzen
-
Beschränken von Failovers durch Routenmonitore im Nicht-INC-Modus
-
Verwalten von Heartbeat-Nachrichten mit hoher Verfügbarkeit auf einer Citrix ADC Appliance
-
Entfernen und Ersetzen eines Citrix ADC in einem Hochverfügbarkeit-Setup
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Skalierbarkeit
Da die TCP-Optimierung ressourcenintensiv ist, kann eine einzelne Citrix ADC Appliance, selbst eine High-End-Appliance, möglicherweise keinen hohen Gi-LAN-Durchsatz aufrechterhalten. Um die Kapazität Ihres Netzwerks zu erweitern, können Sie Citrix ADC Appliances in einer N+1-Clusterformation bereitstellen. In einer Clusterbereitstellung arbeiten die Citrix ADC Appliances als einzelnes Systemimage zusammen. Der Client-Datenverkehr wird über die Clusterknoten mit Hilfe eines externen Switch-Geräts verteilt.
Topologie
Abbildung 1 ist ein Beispiel für einen Cluster, der aus vier T1300-40G-Knoten besteht.
Das in Abbildung 1 gezeigte Setup weist folgende Eigenschaften auf:
- Alle Clusterknoten gehören zum selben Netzwerk (auch als L2-Cluster bezeichnet).
- Datenebene und Backplane-Datenverkehr werden von verschiedenen Switches abgewickelt.
- Unter der Annahme, dass der Gi-LAN-Durchsatz 200 Gbit/s beträgt und eine T1300-40G-Appliance 80 Gbit/s Durchsatz aufrechterhalten kann, benötigen wir drei T1300-40G-Appliances. Um Redundanz im Falle eines Ausfalls eines einzelnen Clusterknotens bereitzustellen, stellen wir insgesamt vier Appliances bereit.
- Jeder Knoten erhält bis zu 67 Gbit/s Datenverkehr (50 Gbit/s unter normalen Betriebsbedingungen und 67 Gbit/s im Falle eines Ausfalls eines einzelnen Clusterknotens). Daher benötigt er 2 x 40 Gbit/s Verbindungen zum Upstream-Switch. Um Redundanz im Falle eines Switch-Ausfalls bereitzustellen, stellen wir einige Upstream-Switches bereit und verdoppeln die Anzahl der Verbindungen.
- Cluster Link Aggregation (CLAG) wird verwendet, um den Datenverkehr über Clusterknoten zu verteilen. Ein einzelner CLAG verarbeitet sowohl den Client- als auch den Serververkehr. Link-Redundanz ist auf der CLAG aktiviert, so dass zu einem bestimmten Zeitpunkt nur ein “Subchannel” ausgewählt wird und den Datenverkehr verarbeitet. Wenn ein Link fehlschlägt oder der Durchsatz unter den angegebenen Schwellenwert fällt, wird der andere Unterkanal ausgewählt.
- Der Upstream-Switch führt einen symmetrischen Port-Channel-Lastausgleich durch (z. B. Quell-Dest-IP-Algorithmus von Cisco IOS 7.0 (8) N1 (1)), sodass Vorwärts- und Rückwärtsverkehr von demselben Clusterknoten verarbeitet werden. Diese Eigenschaft ist wünschenswert, da sie die Paketneuordnung eliminiert, was die TCP-Leistung beeinträchtigen würde.
- Es wird erwartet, dass 50 Prozent des Datenverkehrs auf die Backplane gelenkt werden, was bedeutet, dass jeder Knoten bis zu 34 Gbit/s zu anderen Clusterknoten steuert (25 Gbit/s unter normalen Betriebsbedingungen und 34 Gbit/s im Falle eines Ausfalls eines einzelnen Clusterknotens). Daher benötigt jeder Knoten mindestens 4x10G-Verbindungen zum Backplane-Switch. Um Redundanz im Falle eines Switch-Ausfalls bereitzustellen, stellen wir einige Backplane-Switches bereit und verdoppeln die Anzahl der Verbindungen. Link-Redundanz wird derzeit nicht für Backplane unterstützt. Daher ist Cisco VPC oder gleichwertige Technologie erwünscht, um Redundanz auf Switchebene zu erreichen.
- Die MTU-Größe der gesteuerten Pakete beträgt 1578 Byte, daher müssen Backplane-Switches eine MTU mehr als 1500 Byte unterstützen.
Hinweis: Das in Abbildung 1 dargestellte Design gilt auch für T1120- und T1310-Geräte. Für T1310 würden wir 40GbE-Schnittstellen für die Backplane-Verbindungen verwenden, da es 10GbE-Ports fehlen.
Hinweis: Während in diesem Dokument Cisco VPC als Beispiel verwendet wird, können alternative äquivalente Lösungen wie Junipers MLAG verwendet werden.
Hinweis: Während andere Topologien wie ECMP anstelle von CLAG möglich sind, werden sie derzeit für diesen speziellen Anwendungsfall nicht unterstützt.
Konfigurieren der TCP-Optimierung in einem Citrix ADC T1000-Cluster
Nach Abschluss der physischen Installation, der physischen Konnektivität, der Softwareinstallation und der Lizenzierung können Sie mit der tatsächlichen Clusterkonfiguration fortfahren. Die unten beschriebenen Konfigurationen gelten für den Cluster, der in Abbildung 1 dargestellt ist.
Hinweis: Weitere Hinweise zur Clusterkonfiguration finden Sie unter Einrichten eines Citrix ADC-Clusters.
Angenommen, die vier T1300-Knoten in Abbildung 1 haben die folgenden NSIP-Adressen:
Vier T1300 Knoten mit NSIP-Adresse:
T1300-40-1: 10.102.29.60
T1300-40-2: 10.102.29.70
T1300-40-3: 10.102.29.80
T1300-40-4: 10.102.29.90
Der Cluster wird über die Cluster-IP (CLIP) -Adresse verwaltet, die als 10.78.16.61 angenommen wird.
Einrichten des Clusters
Um mit der Konfiguration des in Abbildung 1 gezeigten Clusters zu beginnen, melden Sie sich bei der ersten Appliance an, die Sie dem Cluster hinzufügen möchten (z. B. T1300-40-1), und führen Sie die folgenden Schritte aus.
-
Geben Sie an der Eingabeaufforderung die folgenden Befehle ein:
Befehl:
> add cluster instance 1 > add cluster node 0 10.102.29.60 -state ACTIVE > add ns ip 10.102.29.61 255.255.255.255 -type clip > enable cluster instance 1 > save ns config > reboot –warm
-
Nach dem Neustart der Appliance stellen Sie eine Verbindung zur Cluster-IP-Adresse (CLIP) her, und fügen Sie den Rest der Knoten zum Cluster hinzu:
Befehl:
> add cluster node 1 10.102.29.70 -state ACTIVE > add cluster node 2 10.102.29.80 -state ACTIVE > add cluster node 3 10.102.29.90 –state ACTIVE > save ns config
-
Stellen Sie eine Verbindung mit der NSIP-Adresse jedes der neu hinzugefügten Knoten her, und treten Sie dem Cluster bei:
Befehl:
> join cluster -clip 10.102.29.61 -password nsroot > save ns config > reboot –warm
-
Fahren Sie nach dem Neustart der Knoten mit der Backplane-Konfiguration fort. Geben Sie unter der Cluster-IP-Adresse die folgenden Befehle ein, um einen LACP-Kanal für die Backplane-Verknüpfung jedes Clusterknotens zu erstellen:
Befehl:
> set interface 0/10/[1-8] –lacpkey 1 –lacpmode ACTIVE > set interface 1/10/[1-8] –lacpkey 2 –lacpmode ACTIVE > set interface 2/10/[1-8] –lacpkey 3 –lacpmode ACTIVE > set interface 3/10/[1-8] –lacpkey 4 –lacpmode ACTIVE
-
Konfigurieren Sie in ähnlicher Weise dynamische LA und VPC auf den Backplane-Switches. Stellen Sie sicher, dass die MTU der Backplane-Switch-Schnittstellen mindestens 1578 Byte beträgt.
-
Überprüfen Sie, ob die Kanäle funktionsfähig sind:
Befehl:
> show channel 0/LA/1 > show channel 1/LA/2 > show channel 2/LA/3 > show channel 3/LA/4
-
Konfigurieren Sie die Backplane-Schnittstellen des Cluster-Knotens.
Befehl:
> set cluster node 0 -backplane 0/LA/1 > set cluster node 1 -backplane 1/LA/2 > set cluster node 2 -backplane 2/LA/3 > set cluster node 3 –backplane 3/LA/4
-
Überprüfen Sie den Clusterstatus, und stellen Sie sicher, dass der Cluster funktionsfähig ist:
> Cluster-Instanz anzeigen > show cluster node
Weitere Informationen zum Cluster-Setup finden Sie unter Einrichten eines Citrix ADC-Clusters
Verteilung des Datenverkehrs über Clusterknoten
Nachdem Sie den Citrix ADC-Cluster gebildet haben, stellen Sie Cluster Link Aggregation (CLAG) bereit, um den Datenverkehr über Clusterknoten zu verteilen. Ein einzelner CLAG-Link behandelt sowohl den Client- als auch den Serververkehr.
Führen Sie unter der Cluster-IP-Adresse die folgenden Befehle aus, um die CLAG-Gruppe (Cluster Link Aggregation) zu erstellen, die in Abbildung 1 dargestellt ist:
Befehl:
> set interface 0/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 1/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 2/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
Konfigurieren Sie die dynamische Linkaggregation auf den externen Switches.
Aktivieren Sie dann Link-Redundanz wie folgt:
Code:
> set channel CLA/1 -linkRedundancy ON -lrMinThroughput 240000
Überprüfen Sie schließlich den Kanalstatus, indem Sie Folgendes eingeben:
Befehl:
> show channel CLA/1
Der Kanal sollte UP sein und der tatsächliche Durchsatz sollte 320000 betragen.
Weitere Informationen zur Cluster-Link-Aggregation finden Sie in den folgenden Themen:
Da wir MAC-basierte Weiterleitung (MBF) verwenden, konfigurieren Sie einen Linkset und binden ihn wie folgt an die CLAG-Gruppe:
Befehl:
> add linkset LS/1
> bind linkset LS/1 -ifnum CLA/1
Weitere Informationen zu Linksets finden Sie in den folgenden Themen:
Konfigurieren von VLAN- und IP-Adressen
Wir werden Striped IP-Konfiguration verwenden, was bedeutet, dass IP-Adressen auf allen Knoten aktiv sind (Standardeinstellung). Weitere Informationen zu diesem Thema finden Sie unter Striped-, Teil-Striped- und Spotted-Konfigurationen.
-
Fügen Sie die Ein- und Ausgangs-SNIPs hinzu:
Befehl:
> add ns ip 172.16.30.254 255.255.255.0 –type SNIP > add ns ip 172.16.31.254 255.255.255.0 –type SNIP > add ns ip6 fd00:172:16:30::254/112 –type SNIP > add ns ip6 fd00:172:16:31::254/112 –type SNIP
-
Fügen Sie die entsprechenden VLANs hinzu:
Befehl:
> add vlan 30 -aliasName wireless > add vlan 31 -aliasName internet
-
Binden Sie VLANs mit IPs und Linkset:
Befehl:
> bind vlan 31 -ifnum LS/1 -tagged > bind vlan 30 -ifnum LS/1 -tagged > bind vlan 30 -IPAddress 172.16.30.254 255.255.255.0 > bind vlan 31 -IPAddress 172.16.31.254 255.255.255.0 > bind vlan 30 -IPAddress fd00:172:16:30::254/112 > bind vlan 31 -IPAddress fd00:172:16:31::254/112
Bei Bedarf können mehr Ein- und Ausstieg VLANs hinzugefügt werden.
Konfigurieren der TCP-Optimierung
An dieser Stelle haben wir alle clusterspezifischen Befehle angewendet. Führen Sie die unter beschriebenen Schritte aus, um die Konfiguration abzuschließenTCP-Optimierungskonfiguration.
Dynamisches Routing konfigurieren
Ein Citrix ADC Cluster kann in die dynamische Routing-Umgebung des Kundennetzwerks integriert werden. Es folgt ein Beispiel für dynamische Routing-Konfiguration mit BGP-Routing-Protokoll (OSPF wird auch unterstützt).
-
Aktivieren Sie über die CLIP-Adresse BGP und dynamisches Routing für Ein- und Ausgänge von IP-Adressen:
Befehl:
> enable ns feature bgp > set ns ip 172.16.30.254 –dynamicRouting ENABLED > set ns ip 172.16.31.254 –dynamicRouting ENABLED
-
Öffnen Sie vtysh und konfigurieren Sie BGP für die Egress-Seite:
Code:
> shell root @ns # vtysh ns# Terminal konfigurieren ns (config) # router bgp 65531 ns (config-router) # Netzwerk 10.0.0.0/24 ns (config-router) # Nachbar 172.16.31.100 Remote-as 65530 ns (config-router) # Nachbar 172.16.31.100 Update-Quelle 172.16.31.254 ns (config-router) # exit ns (config) # ns route-install propagieren ns (config) # ns Route-Installationsstandard ns (config) # ns route-install bgp ns (config) # exit
-
Konfigurieren Sie den egress-seitigen BGP-Peer, um die Standardroute zum Citrix ADC Cluster anzukündigen. Zum Beispiel:
Befehl:
Router bgp 65530 bgp Router-ID 172.16.31.100 Netzwerk 0.0.0.0/0 Nachbar 172.16.31.254 Remote-as 65531
-
Führen Sie ähnliche Schritte aus, um die Eindringseite zu konfigurieren.
-
Stellen Sie in vtysh sicher, dass die Konfiguration an alle Clusterknoten weitergegeben wird, indem Sie Folgendes eingeben:
Befehl:
ns# Show running-config
-
Melden Sie sich schließlich bei der NSIP-Adresse jedes Clusterknotens an und überprüfen Sie die von BGP-Peer angekündigten Routen:
Befehl:
> show route | grep BGP
Teilen
Teilen
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.