-
Bereitstellen einer Citrix ADC VPX-Instanz
-
Installieren einer Citrix ADC VPX Instanz auf einem Bare-Metal-Server
-
Installieren einer Citrix ADC VPX-Instanz auf Citrix Hypervisor
-
Installieren einer Citrix ADC VPX Instanz in VMware Cloud auf AWS
-
Installieren einer Citrix ADC VPX Instanz auf Microsoft Hyper-V-Servern
-
Installieren einer Citrix ADC VPX-Instanz auf der Linux-KVM-Plattform
-
Bereitstellen der virtuellen Citrix ADC Appliance mit OpenStack
-
Bereitstellen der Citrix ADC Virtual Appliance mit Virtual Machine Manager
-
Konfigurieren virtueller Citrix ADC Appliances für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Bereitstellen der virtuellen Citrix ADC Appliance mit dem Virsh-Programm
-
Bereitstellen der virtuellen Citrix ADC Appliance mit SR-IOV auf OpenStack
-
Bereitstellen einer Citrix ADC VPX-Instanz auf AWS
-
Bereitstellen einer eigenständigen Citrix ADC VPX-Instanz in AWS
-
Bereitstellen eines hochverfügbaren VPX-Paars mit elastischen IP-Adressen in verschiedenen AWS-Zonen
-
Bereitstellen eines hochverfügbaren VPX-Paars mit privaten IP-Adressen in verschiedenen AWS-Zonen
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung von Enhanced Networking mit AWS ENA
-
Bereitstellen einer Citrix ADC VPX Instanz in Microsoft Azure
-
Netzwerkarchitektur für Citrix ADC VPX-Instanzen in Microsoft Azure
-
Konfigurieren mehrerer IP-Adressen für eine eigenständige Citrix ADC VPX-Instanz
-
Konfigurieren eines Hochverfügbarkeitssetups mit mehreren IP-Adressen und Netzwerkkarten
-
Konfigurieren einer Citrix ADC VPX-Instanz für beschleunigte Azure-Netzwerke
-
Konfigurieren von HA-INC-Knoten mit der Citrix Hochverfügbarkeitsvorlage mit Azure ILB
-
Konfigurieren von GSLB auf einem Hochverfügbarkeits-Setup mit aktivem Standby-Modus
-
Konfigurieren von Adresspools (IIP) für eine Citrix Gateway Appliance
-
Zusätzliche PowerShell -Skripts für die Azure-Bereitstellung
-
Bereitstellen einer Citrix ADC VPX-Instanz auf der Google Cloud Platform
-
Automatisieren der Bereitstellung und Konfiguration von Citrix ADC
-
Upgrade und Downgrade einer Citrix ADC Appliance
-
Lösungen für Telekommunikationsdienstleister
-
Lastausgleich Control-Ebenenverkehr, der auf Durchmesser-, SIP- und SMPP-Protokollen basiert
-
Authentifizierung, Autorisierung und Auditing des Anwendungsdatenverkehrs
-
Funktionsweise von Authentifizierung, Autorisierung und Auditing
-
Grundkomponenten der Authentifizierungs-, Autorisierungs- und Überwachungskonfiguration
-
On-Premises Citrix Gateway als Identitätsanbieter für Citrix Cloud
-
Konfigurationsunterstützung für das Cookie-Attribut SameSite
-
Authentifizierung, Autorisierung und Auditing-Konfiguration für häufig verwendete Protokolle
-
Beheben von Problemen mit Authentifizierung und Autorisierung
-
-
-
-
Konfigurieren des erweiterten Richtlinienausdrucks: Erste Schritte
-
Erweiterte Richtlinienausdrücke: Arbeiten mit Datumsangaben, Uhrzeiten und Zahlen
-
Erweiterte Richtlinienausdrücke: Analysieren von HTTP-, TCP- und UDP-Daten
-
Erweiterte Richtlinienausdrücke: Analysieren von SSL-Zertifikaten
-
Erweiterte Richtlinienausdrücke: IP- und MAC-Adressen, Durchsatz, VLAN-IDs
-
Erweiterte Richtlinienausdrücke: Stream Analytics-Funktionen
-
Zusammenfassende Beispiele für Standard-Syntaxausdrücke und -richtlinien
-
Tutorialbeispiele für Standard-Syntaxrichtlinien für das Umschreiben
-
Migration von Apache mod_rewrite Regeln auf die Standardsyntax
-
-
-
-
-
Verwalten eines virtuellen Cache-Umleitungsservers
-
Statistiken zum virtuellen Server zur Cache-Umleitung anzeigen
-
Aktivieren oder Deaktivieren eines virtuellen Cache-Umleitungsservers
-
Direkter Richtlinientreffer in den Cache anstelle des Ursprungs
-
Verwalten von Clientverbindungen für einen virtuellen Server
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
-
Ziel-IP-Adresse einer Anforderung in Ursprungs-IP-Adresse übersetzen
-
-
-
Routing in einem Cluster
-
-
Konfigurieren von Citrix ADC als nicht validierenden, sicherheitsbezogene Stub-Resolver
-
Jumbo-Frames-Unterstützung für DNS, um Antworten großer Größen zu verarbeiten
-
Konfigurieren der negativen Zwischenspeicherung von DNS-Einträgen
-
-
GSLB-Entitäten einzeln konfigurieren
-
Anwendungsfall: Bereitstellung einer Domainnamen-basierten Autoscale-Dienstgruppe
-
Anwendungsfall: Bereitstellung einer IP-adressbasierten Autoscale-Service-Gruppe
-
-
Verwalten des Client-Datenverkehrs
-
Konfigurieren von virtuellen Servern ohne Sitzungsaufwand für den Lastenausgleich
-
IP-Adresse und Port eines virtuellen Servers in den Request-Header einfügen
-
Verwenden einer angegebenen Quell-IP für die Backend-Kommunikation
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Verwalten des Client-Datenverkehrs auf der Grundlage der Datenverkehrsrate
-
Verwenden eines Quellports aus einem angegebenen Portbereich für die Backend-Kommunikation
-
Konfigurieren der Quell-IP-Persistenz für die Backend-Kommunikation
-
Verwenden von lokalen IPv6-Link-Adressen auf Serverseite eines Lastausgleichs-Setups
-
-
Erweiterte Lastenausgleichseinstellungen
-
Schützen von Anwendungen auf geschützten Servern vor Überlastung des Datenverkehrs
-
Bereinigung von virtuellen Server- und Dienstverbindungen aktivieren
-
Aktivieren oder Deaktivieren der Persistenzsitzung auf TROFS-Diensten
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
Verwalten der Clientverbindung für mehrere Clientanforderungen
-
Standortdetails von der Benutzer-IP-Adresse mit der Geolocation-Datenbank abrufen
-
Verwenden der Quell-IP-Adresse des Clients für die Verbindung zum Server
-
Festlegen eines Grenzwerts für die Anzahl der Clientverbindungen
-
Festlegen eines Grenzwerts für die Anzahl der Anforderungen pro Verbindung zum Server
-
Festlegen eines Schwellenwerts für die an einen Dienst gebundenen Monitore
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Festlegen eines Zeitüberschreitungswertes für Serververbindungen im Leerlauf
-
Festlegen eines Grenzwerts für die Bandbreitenauslastung durch Clients
-
Konfigurieren des Lastenausgleichs für häufig verwendete Protokolle
-
Anwendungsfall 3: Konfigurieren des Lastausgleichs im Direktserverrückgabemodus
-
Anwendungsfall 4: Konfigurieren von LINUX-Servern im DSR-Modus
-
Anwendungsfall 5: Konfigurieren des DSR-Modus bei Verwendung von TOS
-
Anwendungsfall 6: Konfigurieren des Lastausgleichs im DSR-Modus für IPv6-Netzwerke über das TOS-Feld
-
Anwendungsfall 7: Konfigurieren des Lastausgleichs im DSR-Modus mit IP over IP
-
Anwendungsfall 8: Lastausgleich im Einarmmodus konfigurieren
-
Anwendungsfall 9: Konfigurieren des Lastausgleichs im Inline-Modus
-
Anwendungsfall 10: Lastausgleich von Intrusion Detection Systemservern
-
Anwendungsfall 11: Isolieren des Netzwerkverkehrs mit Listening-Richtlinien
-
Anwendungsfall 12: Konfigurieren von XenDesktop für den Lastenausgleich
-
Anwendungsfall 13: Konfigurieren von XenApp für den Lastenausgleich
-
Anwendungsfall 14: ShareFile Assistent für den Lastenausgleich von Citrix ShareFile
-
SSL-Offload und Beschleunigung
-
Unterstützung für Intel Coleto SSL-Chip-basierte Plattformen
-
Unterstützung für Gemalto SafeNet Network Hardwaresicherheitsmodul
-
-
-
-
Konfigurieren eines CloudBridge Connector-Tunnels zwischen zwei Rechenzentren
-
Konfigurieren von CloudBridge Connector zwischen Datacenter und AWS Cloud
-
Konfigurieren eines CloudBridge-Connector-Tunnels zwischen einem Datacenter und Azure Cloud
-
Konfigurieren des CloudBridge Connector-Tunnels zwischen Datacenter und SoftLayer Enterprise Cloud
-
-
Punkte, die für ein Hochverfügbarkeits-Setup berücksichtigt werden müssen
-
Synchronisieren von Konfigurationsdateien in einem Hochverfügbarkeitssetup
-
Beschränken des Hochverfügbarkeitssynchronisierungsverkehrs auf ein VLAN
-
Konfigurieren von Hochverfügbarkeitsknoten in verschiedenen Subnetzen
-
Beschränken von Failovers durch Routenmonitore im Nicht-INC-Modus
-
Verwalten von Heartbeat-Nachrichten mit hoher Verfügbarkeit auf einer Citrix ADC Appliance
-
Entfernen und Ersetzen eines Citrix ADC in einem Hochverfügbarkeit-Setup
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Routing in einem Cluster
Das Routing in einem Cluster funktioniert genauso wie das Routing in einem eigenständigen System. Ein paar Punkte zu beachten:
-
Alle Routingkonfigurationen müssen über die Cluster-IP-Adresse ausgeführt werden, und die Konfigurationen werden an die anderen Clusterknoten weitergegeben.
-
Routen sind auf die maximale Anzahl von ECMP-Routen begrenzt, die vom Upstream-Router unterstützt werden.
-
Knotenspezifische Routing-Konfigurationen müssen mithilfe des Owner-Node-Arguments wie folgt durchgeführt werden:
router ospf
owner-node 0
ospf router-id 97.131.0.1
exit-owner-node
!
Der folgende Befehl zeigt die konsolidierte Clusterkonfiguration für alle Knoten in VTYSH an.
show cluster-config
Der folgende Befehl zeigt den Clusterstatus auf jedem Knoten an.
show cluser node
IPv4-Routing im L2-Cluster
Der folgende Abschnitt enthält Beispielkonfigurationen, die Ihnen bei der Konfiguration von IPv4-OSPF- und BGP-Routing im L2-Cluster helfen.
Hinzufügen von Spotted-SNIP-Adresse und Aktivieren von dynamischem Routing
In der folgenden Konfiguration sind OSPF und BGP-Routing aktiviert. Außerdem werden gespotte SNIP-Adressen hinzugefügt und dynamisches Routing für diese SNIP-Adressen aktiviert.
en ns fea ospf bgp
add vlan 10
add ns ip 10.10.10.1 255.255.255.0 -dynamicrouting enabled -ownernode 1
add ns ip 10.10.10.2 255.255.255.0 -dynamicrouting enabled -ownernode 2
add ns ip 10.10.10.3 255.255.255.0 -dynamicrouting enabled -ownernode 3
bind vlan 10 -ipaddress 10.10.10.1 255.255.255.0
VTYSH IPv4 OSPF-Konfiguration
Um IPv4 OSPF im L2-Cluster zu konfigurieren, müssen Sie:
- Legen Sie die Priorität auf Null fest.
- Konfigurieren Sie die Router-ID als Spotted Konfiguration.
Hinweis:
Die OSPF-Konfigurationsrichtlinien für den L2-Cluster gelten auch für Ospfv3.
In der folgenden Beispielkonfiguration wird IPv4 OSPF konfiguriert.
interface vlan10
IP OSPF PRIORITY 0
!
router ospf
owner-node 1
ospf router-id 97.131.0.1
exit-owner-node
owner-node 2
ospf router-id 97.131.0.2
exit-owner-node
owner-node 3
ospf router-id 97.131.0.3
exit-owner-node
network 10.10.10.0/24 area 0
redistribute kernel
!
VTYSH IPv4 BGP-Konfiguration
In der folgenden VTYSH Beispielkonfiguration ist IPv4 BGP konfiguriert.
router bgp 100
neighbor 10.10.10.10 remote-as 200
owner-node 1
neighbor 10.10.10.10 update-source 10.10.10.1
exit-owner-node
owner-node 2
neighbor 10.10.10.10 update-source 10.10.10.2
exit-owner-node
owner-node 3
neighbor 10.10.10.10 update-source 10.10.10.3
exit-owner-node
redistribute kernel
!
Hinweis:
Der Befehl update-source wird für jeden Nachbarn mit dem Argument Besitzer-Node in der folgenden Konfiguration verwendet, um eine Verbindung mit der richtigen Quell-IP herzustellen.
IPv6-Routing im L2-Cluster
Der folgende Abschnitt enthält Beispielkonfigurationen, die Ihnen bei der Konfiguration von IPv6-OSPF- und BGP-Routing im L2-Cluster helfen.
IPv6-Routing aktivieren
Bevor Sie IPv6-Routing in einem L2-Cluster konfigurieren, müssen Sie das IPv6-Feature aktivieren.
So aktivieren Sie IPv6-Routing mit der CLI,
Geben Sie an der Eingabeaufforderung Folgendes ein:
enable ns fea ipv6pt
Hinzufügen von gespotted SNIP6-Adresse und Aktivieren von dynamischem Routing
In der folgenden Konfiguration sind OSPF und BGP-Routing aktiviert. Außerdem werden gespotte SNIP6-Adressen hinzugefügt und dynamisches Routing für diese SNIP6-Adressen aktiviert.
add ns ip6 3ffa::1/64 -dynamicrouting enabled -ownernode 1
add ns ip6 3ffa::2/64 -dynamicrouting enabled -ownernode 2
add ns ip6 3ffa::3/64 -dynamicrouting enabled -ownernode 3
add vlan 10
bind vlan 10 -ipaddress 3ffa::1/64
VTYSH IPv6 BGP-Konfiguration
In der folgenden VTYSH Beispielkonfiguration ist IPv6 BGP konfiguriert.
router bgp 100
neighbor 3ffa::10 remote-as 200
owner-node 1
neighbor 3ffa::10 update-source 3ffa::1
exit-owner-node
owner-node-2
neighbor 3ffa::10 update-source 3ffa::2
exit-owner-node
owner-node-3
neighbor 3ffa::10 update-source 3ffa::3
exit-owner-node
no neighbor 3ffa::10 activate
address-family ipv6
redistribute kernel
neighbor 3ffa::10 activate
exit-address-family
!
Installieren von IPv6-erlernten Routen
Der Citrix ADC Cluster kann Routen verwenden, die von verschiedenen Routingprotokollen gelernt wurden, nachdem Sie die Routen in der Citrix ADC Cluster-Routingtabelle installiert haben.
So installieren Sie IPv6-gelernte Routen in die interne Routingtabelle mit der CLI:
Geben Sie an der Eingabeaufforderung Folgendes ein:
-
ns route-install ipv6 bgp
-
ns route-install ipv6 ospf
-
ns route-install default
Hinweis:
Wenn Sie IPv4-Routen auf einem IPv6-Nachbarn austauschen müssen, müssen Sie den Befehl
no neighbor 3ffa::10 active
VTYSH aus der früheren Konfiguration entfernen.Der
update-source
VTYSH-Befehl muss für jeden Besitzerknoten verwendet werden, um die richtige IPv6-Quell-IP anzugeben, während die Verbindung mit dem BGP-Peer hergestellt wird, wie in der BGP-IPv4-Konfiguration angegeben.
Routing in einem L3-Cluster
Das Routing in einem L3-Cluster funktioniert nur, wenn die folgenden Konfigurationen auf der Citrix ADC Appliance durchgeführt werden.
-
Aktivieren Sie das dynamische Routing für ein VLAN.
set vlan <id> -dynamicrouting enabled
-
Um alle Cluster-Knoten zu erreichen, müssen VIP, CLIP und Citrix ADC IP (NSIP) zusammen mit dem
set vlan
Befehl durch Routingprotokolle beworben werden.
Bereitstellungsszenario für BGP im L3-Cluster
Betrachten Sie ein Beispiel, bei dem alle Clusterknoten im AS 100-Netzwerk gruppiert sind und sich die Upstream-Router in einem anderen AS 200 befinden.
Die folgende Abbildung zeigt die AS 100- und AS 200-Bereitstellung in einem Cluster-Setup.
In dieser Bereitstellung wirbt CLIP CCO für Upstream-Router an. Einige Cluster-Knoten löschen den angekündigten Datenverkehr, da eine AS-Schleife erkannt wird.
Um das Problem zu beheben, konfigurieren Sie den folgenden Befehl im VTYSH BGP-Router-Modus für jeden Nachbarn.
Geben Sie an der VTYSH Eingabeaufforderung Folgendes ein:
neighbor <peer_ip> allowas-in 1
Als bewährte Methode empfiehlt Citrix, eine der folgenden Optionen zu konfigurieren:
-
Konfigurieren Sie Routenkarten, um nur die gewünschten Netzwerke wie Standardroute, Citrix ADC IP (NSIP) und NSIP-Subnetze auf Clusterknoten zu lernen.
-
Konfigurieren Sie Upstream-Routen, um nur gewünschte Netzwerke wie CLIP und Citrix ADC IP (NSIP) im Cluster anzukündigen.
Teilen
Teilen
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.