Citrix ADC

Matrice de prise en charge et directives d’utilisation

Ce document répertorie les différents hyperviseurs et fonctionnalités prises en charge sur une instance Citrix ADC VPX, leurs directives d’utilisation et leurs limitations connues.

Tableau 1. Instance VPX sur Citrix Hypervisor

Version de Citrix Hypervisor SysID Modèles VPX
8.2 pris en charge 13.0 64.x à partir de, 8.0, 7.6, 7.1 450000 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G

Tableau 2. Instance VPX sur le serveur VMware ESXi

Version ESXi Date de sortie d’ESXi au MM/DD/YYYY format Numéro de build ESXi Version Citrix ADC VPX SysID Modèles VPX
ESXi 7.0 mise à jour 2a 12/17/2020 17867351 À partir de 13.0-82.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Mise à jour 1d d’ESXi 7.0 12/17/2020 17551050 À partir de 13.0-82.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 mise à jour 1c 12/17/2020 17325551 À partir de 13.0-82.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 mise à jour 1b 10/06/2020 16850804 à partir de 13.0-76.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 o 06/23/2020 16324942 13.0-71.x à partir de 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 GA 04/02/2020 15843807 13.0-71.x à partir de 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P04 11/19/2020 17167734 À partir de 13.0-67.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P03 08/20/2020 16713306 À partir de 13.0-67.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P02 04/28/2020 16075168 À partir de 13.0-67.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P01 12/05/2019 15160138 À partir de 13.0-67.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 Mise à jour 3 08/20/2019 14320388 13.0-58.x à partir de 13.0-58. 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 U2 04/11/2019 13006603 À partir de 13.0-47.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6,5 GA 11/15/2016 4564106 À partir de 13.0-47.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6,5 uG 3/20/2018 7967591 13,0 47.x à partir de 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Mise à jour 3 d’ESXi 6.0 2/24/2017 5050593 12.0-51.x à partir de 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Correctif 11 ESXi 6.0 Express 10/5/2017 6765062 À partir de 12.0-56.x 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G

Tableau 3. VPX sur Microsoft Hyper-V

Version Hyper-V SysID Modèles VPX
2012, 2012 R2, 2016, 2019 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000

Tableau 4. Instance VPX sur KVM générique

Version KVM générique SysID Modèles VPX
RHEL 7.4, RHEL 7.5 (à partir de Citrix ADC version 12.1 50.x), RHEL 7.6, RHEL 8.0, Ubuntu 16.04, Ubuntu 18.04, RHV 4.2 450070 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G. VPX 25G, VPX 40G, VPX 100G

Points à noter :

Lorsque vous utilisez les hyperviseurs KVM, tenez compte des points suivants.

  • L’instance VPX est qualifiée pour les versions de version de l’Hypervisor mentionnées dans le tableau 1—4, et non pour les versions de correctifs dans une version. Toutefois, l’instance VPX devrait fonctionner de manière transparente avec les versions de correctifs d’une version prise en charge. Si ce n’est pas le cas, enregistrez un cas de prise en charge pour le dépannage et le débogage.

  • Avant d’utiliser RHEL 7.6, procédez comme suit sur l’hôte KVM :
    1. Modifiez /etc/default/grub et ajoutez "kvm_intel.preemption_timer=0" à la variable GRUB_CMDLINE_LINUX.

    2. Régénérez grub.cfg avec la commande "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Redémarrez la machine hôte.

  • Avant d’utiliser Ubuntu 18.04, procédez comme suit sur l’hôte KVM :

    1. Modifiez /etc/default/grub et ajoutez "kvm_intel.preemption_timer=0" à la variable GRUB_CMDLINE_LINUX.
    2. Régénérez grub.cfg avec la commande "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Redémarrez la machine hôte.

Tableau 5. Instance VPX sur AWS

Version AWS SysID Modèles VPX
S.O. 450040 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL (VPX 8000, VPX 10G, VPX 15G et VPX 25G sont disponibles uniquement avec BYOL avec les types d’instance EC2 (C5, M5 et C5n)

Tableau 6. Instance VPX sur Azure

Version Azure SysID Modèles VPX
S.O. 450020 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX BYOL

Tableau 7. Matrice de fonctions VPX

Fonction VPX

  1. La prise en charge du clustering est disponible sur SRIOV pour les interfaces client et serveur et non pour le fond de panier.

  2. Les événements DOWN de l’interface ne sont pas enregistrés dans les instances Citrix ADC VPX.

  3. Pour LA statique, le trafic peut toujours être envoyé sur l’interface dont l’état physique est DOWN.

  4. Pour LACP, le périphérique homologue connaît l’événement DOWN de l’interface basé sur le mécanisme de délai d’expiration LACP.

    • Délai d’expiration court : 3 secondes
    • Délai d’expiration long : 90 secondes
  5. Pour LACP, ne partagez pas d’interfaces entre les machines virtuelles.

  6. Pour le routage dynamique, le temps de convergence dépend du protocole de routage car les événements de liaison ne sont pas détectés.

  7. La fonctionnalité Routage statique surveillé échoue si vous ne liez pas les moniteurs à des routes statiques, car l’état de l’itinéraire dépend de l’état du VLAN. L’état du VLAN dépend de l’état de la liaison.

  8. La détection de défaillance partielle ne se produit pas en haute disponibilité en cas de défaillance de liaison. Une condition cérébrale divisée à haute disponibilité peut se produire en cas de défaillance de liaison.

    • Lorsqu’un événement de lien (désactiver/activer, réinitialiser) est généré à partir d’une instance VPX, l’état physique du lien ne change pas. Pour LA statique, tout trafic initié par le pair est supprimé sur l’instance.

    • Pour que la fonctionnalité de balisage VLAN fonctionne, procédez comme suit :

    Sur VMware ESX, définissez l’ID VLAN du groupe de ports sur 1 à 4095 sur le vSwitch du serveur VMware ESX. Pour plus d’informations sur la définition d’un ID VLAN sur le vSwitch du serveur VMware ESX, consultez Solutions VLAN VMware ESX Server 3 802.1Q.

Tableau 8. Navigateurs pris en charge

Système d’exploitation Navigateur et versions
Windows 7 Internet Explorer - 8, 9, 10 et 11 ; Mozilla Firefox 3.6.25 et versions ultérieures ; Google Chrome- 15 et supérieures
Windows 64 bits Internet Explorer - 8, 9 ; Google Chrome - 15 et plus
MAC Mozilla Firefox - 12 et plus ; Safari - 5.1.3 ; Google Chrome - 15 et plus

Consignes d’utilisation

Suivez ces instructions d’utilisation :

Consultez la section Considérations relatives au processeur VMware ESXi dans le document Performance Best Practices for VMware vSphere 6.5. Voici un extrait :

  • Il n’est pas recommandé que les machines virtuelles à forte demande de CPU/mémoire reposent sur un hôte/cluster surengagé.

  • Dans la plupart des environnements, ESXi permet des niveaux significatifs de surengagement du processeur sans affecter les performances des machines virtuelles. Sur un hôte, vous pouvez exécuter plus de processeurs virtuels que le nombre total de cœurs de processeur physiques de cet hôte.

  • Si un hôte ESXi devient saturé en processeur, c’est-à-dire que les machines virtuelles et les autres charges sur l’hôte exigent toutes les ressources CPU dont dispose l’hôte, les charges de travail sensibles à la latence risquent de ne pas fonctionner correctement. Dans ce cas, vous pouvez réduire la charge du processeur, par exemple en mettant hors tension certaines machines virtuelles ou en les migrant vers un autre hôte (ou en autorisant DRS à les migrer automatiquement).

  • Citrix recommande la dernière version de compatibilité matérielle pour utiliser les derniers jeux de fonctionnalités de l’hyperviseur ESXi pour la machine virtuelle. Pour plus d’informations sur la compatibilité matérielle et la version ESXi, consultez la documentation VMware.

  • Le Citrix ADC VPX est un dispositif virtuel hautes performances sensible à la latence. Pour obtenir les performances escomptées, l’appliance requiert une réservation vCPU, une réservation mémoire, un épinglage vCPU sur l’hôte. En outre, l’hyper thread doit être désactivé sur l’hôte. Si l’hôte ne répond pas à ces exigences, des problèmes tels que basculement haute disponibilité, pic de processeur dans l’instance VPX, lenteur dans l’accès à l’interface de ligne de commande VPX, plantage du démon pit boss, pertes de paquets et faible débit se produisent.

Un Hypervisor est considéré comme surprovisionné si l’une des deux conditions suivantes est remplie :

  • Le nombre total de cœurs virtuels (vCPU) provisionnés sur l’hôte est supérieur au nombre total de cœurs physiques (PCPU).

  • Le nombre total de machines virtuelles provisionnées consomme plus de vCPU que le nombre total de PCUs.

    Si une instance est surprovisionnée, il se peut que l’hyperviseur ne garantisse pas les ressources réservées (telles que le processeur, la mémoire et autres) pour l’instance en raison des surcharges de planification de l’hyperviseur, des bogues ou des limitations avec l’hyperviseur. Ce comportement peut entraîner un manque de ressources CPU pour Citrix ADC et peut entraîner les problèmes mentionnés au premier point sous Directives d’utilisation. En tant qu’administrateurs, il est recommandé de réduire la location de l’hôte afin que le nombre total de vCPU provisionnés sur l’hôte soit inférieur ou égal au nombre total de PCUs.

    Exemple

    Pour l’Hypervisor ESX, si le%RDY% paramètre d’un vCPU VPX est supérieur à 0 dans la sortie de esxtop commande, l’hôte ESX est dit avoir des frais généraux de planification, ce qui peut causer des problèmes liés à la latence pour le VPX instance.

    Dans une telle situation, réduisez la location sur l’hôte de sorte que%RDY% revient toujours à 0. Sinon, contactez le fournisseur de l’Hypervisor pour trier la raison pour laquelle la réservation de ressource n’a pas été effectuée.

  • L’ajout à chaud est pris en charge uniquement pour les interfaces PV et SRIOV avec Citrix ADC sur AWS. Les instances VPX avec interfaces ENA ne prennent pas en charge la connexion à chaud, et le comportement des instances peut être imprévisible si l’on tente de brancher à chaud.
  • La suppression à chaud via la console Web AWS ou l’interface CLI AWS n’est pas prise en charge avec les interfaces PV, SRIOV et ENA pour Citrix ADC. Le comportement des instances peut être imprévisible si la suppression à chaud est tentée.

Commandes pour contrôler l’utilisation du processeur du moteur de paquets

Vous pouvez utiliser deux commandes (set ns vpxparam et show ns vpxparam) pour contrôler le comportement d’utilisation du processeur du moteur de paquets (hors gestion) des instances VPX dans les environnements d’hyperviseur et de cloud :

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Autoriser chaque machine virtuelle à utiliser des ressources CPU qui ont été allouées à une autre machine virtuelle mais qui ne sont pas utilisées.

    Set ns vpxparam paramètres :

    -cpuyield : libère ou ne libère pas des ressources CPU allouées mais inutilisées.

    • OUI : Autoriser l’utilisation de ressources CPU allouées mais non utilisées par une autre machine virtuelle.

    • NON : réserve toutes les ressources CPU pour la machine virtuelle à laquelle elles ont été allouées. Cette option affiche un pourcentage plus élevé dans les environnements d’Hypervisor et de cloud pour l’utilisation du CPU VPX.

    • DÉFAUT : Non.

    Remarque

    Sur toutes les plates-formes Citrix ADC VPX, l’utilisation du vCPU sur le système hôte est de 100 %. Tapez la commande set ns vpxparam –cpuyield YES pour remplacer cette utilisation.

    Si vous souhaitez définir les nœuds du cluster sur « rendement », vous devez effectuer les configurations supplémentaires suivantes sur CCO :

    • Si un cluster est formé, tous les nœuds présentent « Yield=Default ».
    • Si un cluster est formé à l’aide des nœuds déjà définis sur « Yield=YES », les nœuds sont ajoutés au cluster en utilisant le rendement « DEFAULT ».

    Remarque :

    Si vous souhaitez définir les nœuds du cluster sur « Yield=YES », vous pouvez effectuer des configurations appropriées uniquement après la formation du cluster, mais pas avant la formation du cluster.

    -masterclockcpu1 : Vous pouvez déplacer la source d’horloge principale de CPU0 (CPU de gestion) vers CPU1. Ce paramètre a les options suivantes :

    • OUI : Autorisez la machine virtuelle à déplacer la source d’horloge principale de CPU0 vers CPU1.

    • NON : VM utilise CPU0 pour la source d’horloge principale. Par défaut, CPU0 est la principale source d’horloge.

  • show ns vpxparam

    Affichez les vpxparam paramètres actuels.

Autres références

Matrice de prise en charge et directives d’utilisation