Citrix ADC

Support-Matrix und Nutzungsrichtlinien

In diesem Dokument werden die verschiedenen Hypervisoren und Funktionen aufgeführt, die von einer Citrix ADC VPX-Instanz unterstützt werden, ihre Nutzungsrichtlinien und bekannten Einschränkungen.

Tabelle 1. VPX-Instanz auf Citrix Hypervisor

Citrix Hypervisor Version SysID VPX Modelle
8.2 unterstützt ab 13,0 64.x, 8,0, 7,6, 7.1 450000 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10 G, VPX 15 G, VPX 25 G, VPX 40 G

Tabelle 2. VPX-Instanz auf VMware ESXi-Server

ESX-Version ESX-Erscheinungsdatum ESX-Build-Nummer Citrix ADC VPX Version SysID VPX Modelle
ESX 7.0 Update 2a 2021/04/29 17867351 13.1-4.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESX 7.0 aktualisieren 1d 2021/02/02 17551050 13.0-82.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESX 7.0 Update 1c 2020/12/17 17325551 13.0-79.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESX 7.0 Update 1b 10/06/2020 16850804 13.0-76.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0b 06/23/2020 16324942 13.0-71.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 GA 04/02/2020 15843807 13.0-71.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P04 11/19/2020 17167734 13.0-67.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P03 08/20/2020 16713306 13.0-67.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P02 04/28/2020 16075168 13.0-67.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P01 12/05/2019 15160138 13.0-67.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 Aktualisieren 3 08/20/2019 14320388 13.0-58.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 U2 04/11/2019 13006603 13.0-47.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.5 GA 11/15/2016 4564106 13.0-47.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6,5 U1g 3/20/2018 7967591 13.0 47,x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.0 Update 3 2/24/2017 5050593 12.0-51.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.0 Express-Patch 11 10/5/2017 6765062 12.0-56.x ab 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G

Tabelle 3. VPX auf Microsoft Hyper-V

Hyper-V-Version SysID VPX Modelle
2012, 2012 R2, 2016, 2019 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000

Tabelle 4. VPX-Instanz auf generischem KVM

Generische KVM-Version SysID VPX Modelle
RHEL 7.4, RHEL 7.5 (ab Citrix ADC Version 12.1 50.x), RHEL 7.6, RHEL 8.0, Ubuntu 16.04, Ubuntu 18.04, RHV 4.2 450070 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10 G, VPX 15 G. VPX 25G, VPX 40G, VPX 100G

Zu beachtende Punkte:

Berücksichtigen Sie bei der Verwendung von KVM-Hypervisoren die folgenden Punkte.

  • Die VPX-Instanz ist für Hypervisor Releaseversionen in Tabelle 1—4 und nicht für Patch-Releases innerhalb einer Version qualifiziert. Es wird jedoch erwartet, dass die VPX-Instanz nahtlos mit Patch-Versionen einer unterstützten Version funktioniert. Wenn dies nicht der Fall ist, protokollieren Sie einen Supportfall für die Fehlerbehebung und das Debuggen.

  • Bevor Sie RHEL 7.6 verwenden, führen Sie die folgenden Schritte auf dem KVM-Host aus:
    1. Bearbeiten Sie /etc/default/grub und hängen Sie "kvm_intel.preemption_timer=0" an die Variable GRUB_CMDLINE_LINUX an.

    2. Generieren Sie grub.cfg mit dem Befehl neu "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Starten Sie den Hostcomputer neu.

  • Bevor Sie Ubuntu 18.04 verwenden, führen Sie die folgenden Schritte auf dem KVM-Host aus:

    1. Bearbeiten Sie /etc/default/grub und hängen Sie "kvm_intel.preemption_timer=0" an die Variable GRUB_CMDLINE_LINUX an.
    2. Generieren Sie grub.cfg mit dem Befehl neu "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Starten Sie den Hostcomputer neu.

Tabelle 5. VPX-Instanz auf AWS

AWS-Version SysID VPX Modelle
Nicht zutreffend 450040 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL (VPX 8000, VPX 10G, VPX 15G und VPX 25G sind nur mit BYOL mit EC2-Instance-Typen (C5, M5 und C5n) verfügbar

Tabelle 6. VPX-Instanz auf Azure

Azure-Version SysID VPX Modelle
Nicht zutreffend 450020 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX BYOL

Tabelle 7. VPX-Feature-Matrix

VPX-Funktion

  1. Clustering-Unterstützung ist auf SRIOV für Client- und Serverschnittstellen und nicht für die Backplane verfügbar.

  2. Interface DOWN Ereignisse werden in Citrix ADC VPX-Instanzen nicht aufgezeichnet.

  3. Für statische LA wird möglicherweise weiterhin Datenverkehr auf der Schnittstelle gesendet, deren physischer Status DOWN ist.

  4. Für LACP kennt das Peer-Gerät das Interface DOWN-Ereignis basierend auf dem LACP-Timeout-Mechanismus.

    • Kurze Zeitüberschreitung: 3 Sekunden
    • Langes Timeout: 90 Sekunden
  5. Teilen Sie für LACP keine Schnittstellen zwischen virtuellen Rechnern.

  6. Bei dynamischem Routing hängt die Konvergenzzeit vom Routingprotokoll ab, da Linkereignisse nicht erkannt werden.

  7. Die überwachte statische Route-Funktionalität schlägt fehl, wenn Sie keine Monitore an statische Routen binden, da der Routenstatus vom VLAN-Status abhängt. Der VLAN-Status hängt vom Verbindungsstatus ab.

  8. Eine teilweise Fehlererkennung erfolgt bei hoher Verfügbarkeit nicht, wenn ein Verbindungsfehler vorliegt. Eine hohe Verfügbarkeits-geteilte Gehirnerkrankung kann auftreten, wenn ein Verbindungsfehler vorliegt.

    • Wenn ein Linkereignis (Deaktivieren/Aktivieren, Zurücksetzen) von einer VPX-Instanz generiert wird, ändert sich der physische Status des Links nicht. Bei statischer LA wird jeder vom Peer initiierte Datenverkehr auf der Instanz gelöscht.

    • Damit die VLAN-Tagging-Funktion funktioniert, gehen Sie folgendermaßen vor:

    Legen Sie auf VMware ESX die VLAN-ID der Portgruppe auf dem vSwitch des VMware ESX-Servers auf 1-4095 fest. Weitere Informationen zum Festlegen einer VLAN-ID auf dem vSwitch des VMware ESX-Servers finden Sie unter VMware ESX Server 3 802.1Q VLAN-Lösungen.

Tabelle 8. Unterstützte Browser

Betriebssystem Browser und Versionen
Windows 7 Internet Explorer-8, 9, 10 und 11; Mozilla Firefox 3.6.25 und höher; Google Chrome-15 und höher
Windows 64-Bit Internet Explorer — 8, 9; Google Chrome — 15 und höher
MAC Mozilla Firefox - 12 und höher; Safari - 5.1.3; Google Chrome - 15 und höher

Richtlinien für die Verwendung

Folgen Sie diesen Nutzungsrichtlinien:

Weitere Informationen zu VMware ESXi CPU-Überlegungen im Dokument Best Practices für die Leistung für VMware vSphere 6.5. Hier ist ein Auszug:

  • Es wird nicht empfohlen, dass virtuelle Maschinen mit hohem CPU/Speicherbedarf auf einem Host/Cluster sitzen, der überschrieben ist.

  • In den meisten Umgebungen ermöglicht ESXi eine erhebliche CPU-Überverpflichtung, ohne die Leistung der virtuellen Maschine zu beeinträchtigen. Auf einem Host können Sie mehr vCPUs ausführen als die Gesamtzahl der physischen Prozessorkerne in diesem Host.

  • Wenn ein ESXi-Host CPU-gesättigt wird, dh die virtuellen Maschinen und andere Lasten auf dem Host alle CPU-Ressourcen verlangen, die der Host besitzt, funktionieren latenzsensitive Workloads möglicherweise nicht gut. In diesem Fall können Sie die CPU-Last reduzieren, z. B. indem Sie einige virtuelle Maschinen ausschalten oder sie auf einen anderen Host migrieren (oder DRS die automatische Migration zulassen).

  • Citrix empfiehlt die neueste Hardwarekompatibilitätsversion, um die neuesten Feature-Sets des ESXi-Hypervisors für die virtuelle Maschine nutzen zu können. Weitere Informationen zur Hardware- und ESXi-Versionskompatibilität finden Sie in der VMware-Dokumentation.

  • Der Citrix ADC VPX ist eine latenzempfindliche, leistungsstarke virtuelle Appliance. Um die erwartete Leistung zu erzielen, benötigt die Appliance eine vCPU-Reservierung, Speicherreservierung und vCPU-Pinning auf dem Host. Außerdem muss Hyper-Threading auf dem Host deaktiviert werden. Wenn der Host diese Anforderungen nicht erfüllt, treten Probleme wie Hochverfügbarkeits-Failover, CPU-Anstieg innerhalb der VPX-Instanz, Trägheit beim Zugriff auf die VPX CLI, Absturz des Pitboss-Daemons, Paketausfälle und ein niedriger Durchsatz auf.

Ein Hypervisor gilt als übermäßig bereitgestellt, wenn eine der folgenden beiden Bedingungen erfüllt ist:

  • Die Gesamtzahl der auf dem Host bereitgestellten virtuellen Kerne (vCPU) ist größer als die Gesamtzahl der physischen Kerne (pCPUs).

  • Die Gesamtzahl der bereitgestellten VMs verbrauchen mehr vCPUs als die Gesamtzahl der pCPUs.

    Wenn eine Instanz übermäßig bereitgestellt wird, garantiert der Hypervisor möglicherweise nicht die für die Instanz reservierten Ressourcen (wie CPU, Speicher und andere) aufgrund von Hypervisor-Planungs-Overheads, Fehlern oder Einschränkungen mit dem Hypervisor. Dieses Verhalten kann zu einem Mangel an CPU-Ressource für Citrix ADC führen und zu den im ersten Punkt unter den Nutzungsrichtliniengenannten Problemen führen. Als Administratoren wird empfohlen, die Mandanten auf dem Host zu reduzieren, sodass die Gesamtanzahl der auf dem Host bereitgestellten vCPUs kleiner oder gleich der Gesamtzahl der pCPUs ist.

    Beispiel

    Wenn für ESX-Hypervisor der %RDY% Parameter einer VPX-vCPU in der esxtop Befehlsausgabe größer als 0 ist, wird der ESX-Host als Planungs-Gemeinkosten angegeben, was zu Latenzproblemen für die VPX-Instanz führen kann.

    Reduzieren Sie in einer solchen Situation das Mietverhältnis auf dem Host, sodass immer auf 0 %RDY% zurückkehrt. Wenden Sie sich alternativ an den Hypervisor-Anbieter, um den Grund für die Nichteinhalten der durchgeführten Ressourcenreservierung zu prüfen.

  • Hot Adding wird nur für PV- und SRIOV-Schnittstellen mit Citrix ADC auf AWS unterstützt. VPX-Instanzen mit ENA-Schnittstellen unterstützen kein Hot-Plug, und das Verhalten der Instanzen kann unvorhersehbar sein, wenn Hot-Plugging versucht wird.
  • Das heiße Entfernen entweder über die AWS-Webkonsole oder die AWS CLI-Schnittstelle wird mit PV-, SRIOV- und ENA-Schnittstellen für Citrix ADC nicht unterstützt. Das Verhalten der Instanzen kann unvorhersehbar sein, wenn versucht wird, das Hot-Removal zu entfernen.

Befehle zur Steuerung der CPU-Auslastung der Paket-Engine

Sie können zwei Befehle (set ns vpxparam und show ns vpxparam) verwenden, um das CPU-Auslastungsverhalten von VPX-Instanzen in Hypervisor- und Cloud-Umgebungen zu steuern:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Erlauben Sie jeder VM, CPU-Ressourcen zu verwenden, die einer anderen VM zugewiesen wurden, aber nicht verwendet werden.

    Set ns vpxparam parameter:

    -cpuyield: Freigabe von zugewiesenen, aber nicht genutzten CPU-Ressourcen.

    • JA: Erlauben Sie, dass zugewiesene, aber ungenutzte CPU-Ressourcen von einer anderen VM verwendet werden.

    • NEIN: Reservieren Sie alle CPU-Ressourcen für die VM, der sie zugewiesen wurden. Diese Option zeigt einen höheren Prozentsatz in Hypervisor- und Cloud-Umgebungen für die VPX-CPU-Auslastung.

    • DEFAULT: Nein.

    Hinweis

    Auf allen Citrix ADC VPX-Plattformen beträgt die vCPU-Auslastung auf dem Hostsystem 100 Prozent. Geben Sie denset ns vpxparam –cpuyield YES Befehl ein, um diese Verwendung zu überschreiben.

    Wenn Sie die Clusterknoten auf “yield” setzen möchten, müssen Sie die folgenden zusätzlichen Konfigurationen für CCO durchführen:

    • Wenn ein Cluster gebildet wird, erhalten alle Knoten “yield=Default”.
    • Wenn ein Cluster unter Verwendung der Knoten gebildet wird, die bereits auf “yield=Yes” eingestellt sind, werden die Knoten mithilfe der “DEFAULT” -Ausbeute zum Cluster hinzugefügt.

    Hinweis:

    Wenn Sie die Clusterknoten auf “yield=Yes” setzen möchten, können Sie geeignete Konfigurationen erst nach dem Erstellen des Clusters durchführen, jedoch nicht bevor der Cluster gebildet wird.

    -masterclockcpu1: Sie können die Hauptaktquelle von CPU0 (Management-CPU) auf CPU1 verschieben. Dieser Parameter hat die folgenden Optionen:

    • JA: Erlauben Sie VM, die Hauptaktquelle von CPU0 auf CPU1 zu verschieben.

    • NEIN: VM verwendet CPU0 für die Hauptaktquelle. Standardmäßig ist CPU0 die Hauptaktquelle.

  • show ns vpxparam

    Zeigt die aktuellen vpxparam Einstellungen an.

Andere Referenzen

Support-Matrix und Nutzungsrichtlinien