-
Bereitstellen einer Citrix ADC VPX-Instanz
-
Installieren einer Citrix ADC VPX Instanz auf einem Bare-Metal-Server
-
Installieren einer Citrix ADC VPX-Instanz auf Citrix Hypervisor
-
Installieren einer Citrix ADC VPX Instanz in VMware Cloud auf AWS
-
Installieren einer Citrix ADC VPX Instanz auf Microsoft Hyper-V-Servern
-
Installieren einer Citrix ADC VPX-Instanz auf der Linux-KVM-Plattform
-
Bereitstellen der virtuellen Citrix ADC Appliance mit OpenStack
-
Bereitstellen der Citrix ADC Virtual Appliance mit Virtual Machine Manager
-
Konfigurieren virtueller Citrix ADC Appliances für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Bereitstellen der virtuellen Citrix ADC Appliance mit dem Virsh-Programm
-
Bereitstellen der virtuellen Citrix ADC Appliance mit SR-IOV auf OpenStack
-
Bereitstellen einer Citrix ADC VPX-Instanz auf AWS
-
Bereitstellen einer eigenständigen Citrix ADC VPX-Instanz in AWS
-
Bereitstellen eines hochverfügbaren VPX-Paars mit elastischen IP-Adressen in verschiedenen AWS-Zonen
-
Bereitstellen eines hochverfügbaren VPX-Paars mit privaten IP-Adressen in verschiedenen AWS-Zonen
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung der SR-IOV-Netzwerkschnittstelle
-
Konfigurieren einer Citrix ADC VPX-Instanz für die Verwendung von Enhanced Networking mit AWS ENA
-
Bereitstellen einer Citrix ADC VPX Instanz in Microsoft Azure
-
Netzwerkarchitektur für Citrix ADC VPX-Instanzen in Microsoft Azure
-
Konfigurieren mehrerer IP-Adressen für eine eigenständige Citrix ADC VPX-Instanz
-
Konfigurieren eines Hochverfügbarkeitssetups mit mehreren IP-Adressen und Netzwerkkarten
-
Konfigurieren einer Citrix ADC VPX-Instanz für beschleunigte Azure-Netzwerke
-
Konfigurieren von HA-INC-Knoten mit der Citrix Hochverfügbarkeitsvorlage mit Azure ILB
-
Konfigurieren von GSLB auf einem Hochverfügbarkeits-Setup mit aktivem Standby-Modus
-
Konfigurieren von Adresspools (IIP) für eine Citrix Gateway Appliance
-
Zusätzliche PowerShell -Skripts für die Azure-Bereitstellung
-
Bereitstellen einer Citrix ADC VPX-Instanz auf der Google Cloud Platform
-
Automatisieren der Bereitstellung und Konfiguration von Citrix ADC
-
Upgrade und Downgrade einer Citrix ADC Appliance
-
Lösungen für Telekommunikationsdienstleister
-
Lastausgleich Control-Ebenenverkehr, der auf Durchmesser-, SIP- und SMPP-Protokollen basiert
-
Authentifizierung, Autorisierung und Auditing des Anwendungsdatenverkehrs
-
Funktionsweise von Authentifizierung, Autorisierung und Auditing
-
Grundkomponenten der Authentifizierungs-, Autorisierungs- und Überwachungskonfiguration
-
On-Premises Citrix Gateway als Identitätsanbieter für Citrix Cloud
-
Konfigurationsunterstützung für das Cookie-Attribut SameSite
-
Authentifizierung, Autorisierung und Auditing-Konfiguration für häufig verwendete Protokolle
-
Beheben von Problemen mit Authentifizierung und Autorisierung
-
-
-
-
Konfigurieren des erweiterten Richtlinienausdrucks: Erste Schritte
-
Erweiterte Richtlinienausdrücke: Arbeiten mit Datumsangaben, Uhrzeiten und Zahlen
-
Erweiterte Richtlinienausdrücke: Analysieren von HTTP-, TCP- und UDP-Daten
-
Erweiterte Richtlinienausdrücke: Analysieren von SSL-Zertifikaten
-
Erweiterte Richtlinienausdrücke: IP- und MAC-Adressen, Durchsatz, VLAN-IDs
-
Erweiterte Richtlinienausdrücke: Stream Analytics-Funktionen
-
Zusammenfassende Beispiele für Standard-Syntaxausdrücke und -richtlinien
-
Tutorialbeispiele für Standard-Syntaxrichtlinien für das Umschreiben
-
Migration von Apache mod_rewrite Regeln auf die Standardsyntax
-
-
-
-
-
Verwalten eines virtuellen Cache-Umleitungsservers
-
Statistiken zum virtuellen Server zur Cache-Umleitung anzeigen
-
Aktivieren oder Deaktivieren eines virtuellen Cache-Umleitungsservers
-
Direkter Richtlinientreffer in den Cache anstelle des Ursprungs
-
Verwalten von Clientverbindungen für einen virtuellen Server
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
-
Ziel-IP-Adresse einer Anforderung in Ursprungs-IP-Adresse übersetzen
-
-
-
Konfigurieren von Layer-3-Clustering
-
-
Konfigurieren von Citrix ADC als nicht validierenden, sicherheitsbezogene Stub-Resolver
-
Jumbo-Frames-Unterstützung für DNS, um Antworten großer Größen zu verarbeiten
-
Konfigurieren der negativen Zwischenspeicherung von DNS-Einträgen
-
-
GSLB-Entitäten einzeln konfigurieren
-
Anwendungsfall: Bereitstellung einer Domainnamen-basierten Autoscale-Dienstgruppe
-
Anwendungsfall: Bereitstellung einer IP-adressbasierten Autoscale-Service-Gruppe
-
-
Verwalten des Client-Datenverkehrs
-
Konfigurieren von virtuellen Servern ohne Sitzungsaufwand für den Lastenausgleich
-
IP-Adresse und Port eines virtuellen Servers in den Request-Header einfügen
-
Verwenden einer angegebenen Quell-IP für die Backend-Kommunikation
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Verwalten des Client-Datenverkehrs auf der Grundlage der Datenverkehrsrate
-
Verwenden eines Quellports aus einem angegebenen Portbereich für die Backend-Kommunikation
-
Konfigurieren der Quell-IP-Persistenz für die Backend-Kommunikation
-
Verwenden von lokalen IPv6-Link-Adressen auf Serverseite eines Lastausgleichs-Setups
-
-
Erweiterte Lastenausgleichseinstellungen
-
Schützen von Anwendungen auf geschützten Servern vor Überlastung des Datenverkehrs
-
Bereinigung von virtuellen Server- und Dienstverbindungen aktivieren
-
Aktivieren oder Deaktivieren der Persistenzsitzung auf TROFS-Diensten
-
Externe TCP-Zustandsprüfung für virtuelle UDP-Server aktivieren
-
Verwalten der Clientverbindung für mehrere Clientanforderungen
-
Standortdetails von der Benutzer-IP-Adresse mit der Geolocation-Datenbank abrufen
-
Verwenden der Quell-IP-Adresse des Clients für die Verbindung zum Server
-
Festlegen eines Grenzwerts für die Anzahl der Clientverbindungen
-
Festlegen eines Grenzwerts für die Anzahl der Anforderungen pro Verbindung zum Server
-
Festlegen eines Schwellenwerts für die an einen Dienst gebundenen Monitore
-
Festlegen eines Timeoutwerts für Leerlauf-Clientverbindungen
-
Festlegen eines Zeitüberschreitungswertes für Serververbindungen im Leerlauf
-
Festlegen eines Grenzwerts für die Bandbreitenauslastung durch Clients
-
Konfigurieren des Lastenausgleichs für häufig verwendete Protokolle
-
Anwendungsfall 3: Konfigurieren des Lastausgleichs im Direktserverrückgabemodus
-
Anwendungsfall 4: Konfigurieren von LINUX-Servern im DSR-Modus
-
Anwendungsfall 5: Konfigurieren des DSR-Modus bei Verwendung von TOS
-
Anwendungsfall 6: Konfigurieren des Lastausgleichs im DSR-Modus für IPv6-Netzwerke über das TOS-Feld
-
Anwendungsfall 7: Konfigurieren des Lastausgleichs im DSR-Modus mit IP over IP
-
Anwendungsfall 8: Lastausgleich im Einarmmodus konfigurieren
-
Anwendungsfall 9: Konfigurieren des Lastausgleichs im Inline-Modus
-
Anwendungsfall 10: Lastausgleich von Intrusion Detection Systemservern
-
Anwendungsfall 11: Isolieren des Netzwerkverkehrs mit Listening-Richtlinien
-
Anwendungsfall 12: Konfigurieren von XenDesktop für den Lastenausgleich
-
Anwendungsfall 13: Konfigurieren von XenApp für den Lastenausgleich
-
Anwendungsfall 14: ShareFile Assistent für den Lastenausgleich von Citrix ShareFile
-
SSL-Offload und Beschleunigung
-
Unterstützung für Intel Coleto SSL-Chip-basierte Plattformen
-
Unterstützung für Gemalto SafeNet Network Hardwaresicherheitsmodul
-
-
-
-
Konfigurieren eines CloudBridge Connector-Tunnels zwischen zwei Rechenzentren
-
Konfigurieren von CloudBridge Connector zwischen Datacenter und AWS Cloud
-
Konfigurieren eines CloudBridge-Connector-Tunnels zwischen einem Datacenter und Azure Cloud
-
Konfigurieren des CloudBridge Connector-Tunnels zwischen Datacenter und SoftLayer Enterprise Cloud
-
-
Punkte, die für ein Hochverfügbarkeits-Setup berücksichtigt werden müssen
-
Synchronisieren von Konfigurationsdateien in einem Hochverfügbarkeitssetup
-
Beschränken des Hochverfügbarkeitssynchronisierungsverkehrs auf ein VLAN
-
Konfigurieren von Hochverfügbarkeitsknoten in verschiedenen Subnetzen
-
Beschränken von Failovers durch Routenmonitore im Nicht-INC-Modus
-
Verwalten von Heartbeat-Nachrichten mit hoher Verfügbarkeit auf einer Citrix ADC Appliance
-
Entfernen und Ersetzen eines Citrix ADC in einem Hochverfügbarkeit-Setup
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Konfigurieren von Layer-3-Clustering
Das L3-Cluster verstehen
Die Forderung, die Hochverfügbarkeitsbereitstellung zu erweitern und die Skalierbarkeit des Clientdatenverkehrs in verschiedenen Netzwerken zu erhöhen, wird zur Einrichtung des L3-Clusters geleitet. Mit dem L3-Cluster können Sie Citrix ADC Appliances über einzelne Subnetze (L2-Cluster) gruppieren.
L3-Cluster wird auch als Cluster in Independent Network Configuration (INC) -Modus bezeichnet. Bei der L3-Clusterbereitstellung werden die Clusterknoten im selben Netzwerk zu einer Node-Gruppe gruppiert. Der L3-Cluster verwendet GRE-Tunneling, um die Pakete über Netzwerke hinweg zu steuern. Die Heartbeat-Nachrichten in den L3-Clustern werden weitergeleitet.
Dieses Dokument enthält die folgenden Details:
- Architektur
- Beispiel
Architektur
Die L3-Cluster-Architektur besteht aus folgenden Komponenten:
-
Knotengruppe. Die Clusterknoten aus jedem Netzwerk (n1, n2) und (n3, n4) sind, wie in der folgenden Abbildung dargestellt, zu einer Node-Gruppe gruppiert. Diese Node-Gruppen werden mit dem Layer-3-Switch auf beiden Seiten des Netzwerks beendet.
- Der Cluster kommuniziert mit dem Client über die physischen Verbindungen zwischen dem Clusterknoten und dem clientseitigen Verbindungsgerät. Die logische Gruppierung dieser physischen Verbindungen wird als Client-Datenebene bezeichnet.
- Der Cluster kommuniziert mit dem Server über die physischen Verbindungen zwischen dem Clusterknoten und dem serverseitigen Verbindungsgerät. Die logische Gruppierung dieser physischen Verbindungen wird als Serverdatenebene bezeichnet.
- Backplane Switch. Clusterknoten innerhalb desselben Netzwerks kommunizieren über die Cluster-Backplane miteinander. Die Backplane ist ein Satz von Schnittstellen, bei denen eine Schnittstelle jedes Knotens mit einem gemeinsamen Switch verbunden ist, der als Cluster-Backplane-Switch bezeichnet wird.
- GRE Tunnel. Die Pakete zwischen Knoten in einem L3-Cluster werden über einen unverschlüsselten GRE-Tunnel ausgetauscht, der die NSIP-Adressen der Quell- und Zielknoten für das Routing verwendet. Der Steuerungsmechanismus ändert sich für Knoten, die zu dem unterschiedlichen Netzwerk gehören. Die Pakete werden durch einen GRE-Tunnel zum Knoten im anderen Subnetz geleitet, anstatt den MAC neu zu schreiben.
Beispiel
Betrachten Sie ein Beispiel für eine L3-Clusterbereitstellung, die aus folgenden Komponenten besteht:
- Drei Citrix ADC Appliances (n1, n2 und n3) sind in Nodegroup1 gruppiert.
- Ebenso sind die Knoten n4 und n5 in Nodegroup2 gruppiert. Im dritten Netzwerk gibt es zwei Knotengruppen. Nodegroup3 enthält n6 und n7 und Nodegroup4 enthält n8 und n9.
- Die Citrix ADC Appliances, die zum selben Netzwerk gehören, werden zu einer Knotengruppe zusammengefasst.
Punkte, die vor der Konfiguration des L3-Clusters zu berücksichtigen sind
Berücksichtigen Sie die folgenden Punkte, bevor Sie den L3-Cluster auf einer Citrix ADC Appliance konfigurieren:
- Bei der Konfiguration von L3-Subnetzen ist die Rückwandplatine nicht erforderlich. Wenn die Rückwandplatine nicht angegeben ist, geht der Knoten nicht in den Fehlerstatus der Rückwandplatine.
Hinweis:
Wenn Sie mehr als einen Knoten im selben L2-Netzwerk haben, ist es zwingend erforderlich, die Backplane-Schnittstelle zu definieren. Wenn die Backplane-Schnittstelle nicht erwähnt wird, gehen die Knoten in den Fehlerstatus der Rückwandplatine.
-
L2-Funktionen und Stripeset-SNIPs werden im L3-Cluster nicht unterstützt.
- Die Verteilung des externen Datenverkehrs im L3-Cluster unterstützt nur Equal Cost Multiple Path (ECMP).
- Die ICMP-Fehler und die Fragmentierung werden nicht verarbeitet, wenn die Steuerung in einer L3-Clusterbereitstellung deaktiviert ist:
- Die Netzwerk-Entitäten (
route, route6, pbr
undpbr6
) müssen an die Konfigurationsknotengruppe gebunden sein. - VLAN, RNAT und IP-Tunnel können nicht an eine Konfigurationsknotengruppe gebunden werden.
- Die Konfigurationsknotengruppe muss immer die Eigenschaft STRICT “YES” haben.
- Die Cluster-Knoten dürfen nicht über den Befehl “Clusterknoten hinzufügen” zu einer Konfigurationsknotengruppe hinzugefügt werden.
- Der
add cluster instance -INC enabled
Befehl löscht die Netzwerkeinheiten (route, route6, PBR, pb6, RNAT, IP-Tunnel, ip6tunnel). - Der
clear config extended+
Befehl löscht die Entitäten (route, route6, PBR, pb6, RNAT, IP-Tunnel, ip6tunnel) in einem L3-Cluster nicht.
Konfigurieren von L3-Cluster
In einer L3-Clusterkonfiguration hat der Clusterbefehl verschiedene zu konfigurierende Attribute, die auf Knoten und Knotengruppen basieren. Die L3-Clusterkonfiguration umfasst neben IPv4-Profilen auch ein IPv6-Profil.
Die Konfiguration des L3-Clusters auf einer Citrix ADC Appliance umfasst die folgenden Aufgaben:
- Erstellen einer Clusterinstanz
- Erstellen einer Knotengruppe im L3-Cluster
- Hinzufügen einer Citrix ADC Appliance zum Cluster und einer Gruppe mit Knotengruppe
- Cluster-IP-Adresse zum Knoten hinzufügen
- Aktivieren der Cluster-Instanz
- Speichern der Konfiguration
- Hinzufügen eines Knotens zu einer bestehenden Knotengruppe
- Erstellen einer Knotengruppe im L3-Cluster
- Gruppieren Sie neue Knoten in die neu erstellte Knotengruppe
- Verbinden Sie den Knoten mit dem Cluster
Konfigurieren des Folgenden über die CLI
-
So erstellen Sie eine Clusterinstanz
add cluster instance <clid> -inc (<ENABLED|DISABLED>) [-processLocal <ENABLED | DISABLED]
-
So erstellen Sie eine Knotengruppe im L3-Cluster
add cluster nodegroup <name>
-
So fügen Sie dem Cluster eine Citrix ADC Appliance hinzu und verknüpfen Sie sie mit Knotengruppe
add cluster node <nodeid> <nodeip> -backplane <interface_name> node group <ng>
-
So fügen Sie die Cluster-IP-Adresse auf diesem Knoten hinzu
add ns ip <IPAddress> <netmask> -type clip
-
Aktivieren der Cluster-Instanz
enable cluster instance <clId>
-
Speichern der Konfiguration
save ns config
-
Warmer Neustart der Appliance
reboot -warm
-
So fügen Sie einer vorhandenen Knotengruppe einen neuen Knoten hinzu
add cluster node <nodeid> <nodeip> -nodegroup <ng>
-
So erstellen Sie eine neue Knotengruppe im L3-Cluster
add cluster nodegroup <ng>
-
So gruppieren Sie neue Knoten zur neu erstellten Knotengruppe
add cluster node <nodeid> <nodeip> -nodegroup <ng>
-
So verbinden Sie den Knoten mit dem Cluster
join cluster –clip <ip_addr> -password <password>
add cluster instance 1 –inc ENABLED –processLocal ENABLED
Done
Hinweis:
Der “inc” -Parameter muss ENABLED für einen L3-Cluster sein.
add cluster nodegroup ng1
Done
> add cluster node 0 1.1.1.1 –state ACTIVE -backplane 0/1/1 –nodegroup ng1
Done
> add ns ip 1.1.1.100 255.255.255.255 –type clip
Done
> enable cluster instance 1
Done
> save ns config
Done
> add cluster node 1 1.1.1.2 –state ACTIVE –nodegroup ng1
Done
> add cluster nodegroup ng2
Done
> add cluster node 4 2.2.2.1 –state ACTIVE –nodegroup ng2
Done
> add cluster node 5 2.2.2.2 –state ACTIVE –nodegroup ng2
Done
> join cluster -clip 1.1.1.100 -password nsroot
IP-Adresse des Werbeclusters eines L3-Clusters
Konfigurieren Sie die Cluster-IP-Adresse, die für den Upstream-Router beworben werden soll, um die Clusterkonfiguration von jedem Subnetz aus zugänglich zu machen.Die Cluster-IP-Adresse wird von den auf einem Knoten konfigurierten dynamischen Routingprotokollen als Kernel-Route angekündigt.
Die Werbung für die Cluster-IP-Adresse besteht aus folgenden Aufgaben:
- Aktivieren Sie die Host-Route-Option der Cluster-IP-Adresse.Die Option Host-Route überträgt die Cluster-IP-Adresse zur Umverteilung der Kernel-Route durch dynamische Routingprotokolle an eine ZeBoS-Routingtabelle.
- Konfigurieren eines dynamischen Routingprotokolls auf einem Knoten.Ein dynamisches Routingprotokoll gibt die Cluster-IP-Adresse an den Upstream-Router an. Weitere Hinweise zum Konfigurieren eines dynamischen Routingprotokolls finden Sie unter Dynamische Routen konfigurieren.
So aktivieren Sie die Host-Routenoption der Cluster-IP-Adresse mit der CLI
Geben Sie an der Eingabeaufforderung Folgendes ein:
- add nsip <IPAddress> <netmask> -hostRoute ENABLED
- show nsip <IPAddress>
> add ns ip 10.102.29.60 255.255.255.255 -hostRoute ENABLED
Done
Striped-, Teil-Striped- und Spotted-Konfigurationen auf L3-Cluster
Die gefleckten und teilweise gestreiften Konfigurationen auf dem L3-Cluster unterscheiden sich geringfügig vom L2-Cluster. Die Konfiguration kann von Knoten zu Knoten unterschiedlich sein, da sich die Knoten in verschiedenen Subnetzen befinden. Die Netzwerkkonfigurationen können knotenspezifisch im L3-Cluster sein, daher müssen Sie die gepunkteten oder teilweise gestreiften Konfigurationen basierend auf den unten genannten Parametern konfigurieren.
Um gepunktete, teilweise gestreifte Konfigurationen auf einer Citrix ADC Appliance über den L3-Cluster zu konfigurieren, führen Sie die folgenden Aufgaben aus:
- Hinzufügen einer Clusterbesitzergruppe zu einer statischen IPv4-Routingtabelle
- Hinzufügen einer Clusterbesitzergruppe zu einer statischen IPv6-Routingtabelle
- Hinzufügen einer Clusterbesitzergruppe zu einem IPv4-richtlinienbasierten Routing (PBR)
- Hinzufügen einer Clusterbesitzergruppe zu einem IPv6 PBR
- Hinzufügen eines VLAN
- Binden eines VLAN an eine bestimmte Eigentümergruppe der Clusterknotengruppe
Konfigurieren des Folgenden über die CLI
-
So fügen Sie einer statischen IPv4-Routentabelle der Citrix ADC Appliance eine Clusterbesitzergruppe hinzu
add route <network> <netmask> <gateway> -owner group <ng>
-
So fügen Sie einer statischen IPv6-Routingtabelle der Citrix ADC Appliance eine Clusterbesitzergruppe hinzu
add route6 <network> -owner group <ng>
-
So fügen Sie einer IPv4-PBR eine Clusterbesitzergruppe hinzu
add pbr <name> <action> -owner group <ng>
-
So fügen Sie einer IPv6-PBR eine Clusterbesitzergruppe hinzu
add pbr6 <name> <action> -owner group <ng>
-
So fügen Sie ein VLAN hinzu
add vlan <id>
-
So binden Sie ein VLAN an eine bestimmte Eigentümergruppe der Clusterknotengruppe
bind vlan <id> -ifnum – [IPAddress <ip_addr | ipv6_addr> [-owner group <ng>]
Die folgenden Befehle sind Beispielbeispiele für gepunktete und teilweise gestreifte Konfigurationen, die mit der CLI konfiguriert werden können.
> add route 10.102.29.0 255.255.255.0 10.102.29.2 –ownergroup ng2
Done
> add route6 fe80::9404:60ff:fedd:a464/64 –ownergroup ng1
Done
> add pbr pbr1 allow –ownergroup ng1
Done
> add pbr6 pbr2 allow –ownergroup ng2
Done
> add vlan 2
Done
> bind vlan 2 –ifnum 1/2 –[IPAddress 10.102.29.80 | fe80::9404:60ff:fedd:a464/64-ownergroup ng1
Done
Konfigurieren der Knotengruppe
Um in einem L3-Cluster dieselben Konfigurationen für mehr als eine Knotengruppe zu replizieren, werden die folgenden Befehle verwendet:
Konfigurieren des folgenden Mithilfe der CLU
-
So fügen Sie der Routingtabelle der Citrix ADC Appliance eine statische IPv4-Route hinzu
add route <network> <netmask> <gateway> -ownerGroup <ng>
Beispielkonfiguration:
add route 0 0 10.102.53.1 –ownerGroup ng1
add route 0 0 10.102.53.1 –ownerGroup ng2
Sie definieren eine neue Knotengruppe “all”, um die vorangehende Konfiguration zu unterstützen, und müssen die folgenden Befehle konfigurieren:
Konfigurieren des Folgenden über die CLI
-
So fügen Sie dem Cluster eine neue Knotengruppe mit dem Strict-Parameter hinzu
add cluster node group <name> -strict <YES | NO>
-
So binden Sie einen Clusterknoten oder eine Entität an die angegebene Knotengruppe
bind cluster nodegroup <name> -node <nodeid>
-
So fügen Sie der gesamten Eigentümergruppe eine statische IPv4-Route hinzu
add route <network> <netmask> <gateway> -ownerGroup <ng>
Beispielkonfiguration:
add cluster nodegroup all –strict YES
bind cluster nodegroup all –node 1
bind cluster nodegroup all –node 2
add route 0 0 10.102.53.1 –ownerGroup all
Teilen
Teilen
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.