Citrix ADC

Tabla de compatibilidad y pautas de uso

En este documento se enumeran los diferentes hipervisores y las funciones admitidas en una instancia Citrix ADC VPX, sus directrices de uso y las limitaciones conocidas.

Cuadro 1 Instancia VPX en Citrix Hypervisor

Versión del Citrix Hypervisor SysID Modelos VPX
8.2 soportado 13.0 64.x en adelante, 8.0, 7.6, 7.1 450000 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G

Tabla 2. Instancia VPX en el servidor VMware ESXi

versión ESXi Fecha de lanzamiento de ESXi en MM/DD/YYYY formato Número de compilación ESXi Versión de Citrix ADC VPX SysID Modelos VPX
ESXi 7.0 actualización 2a 12/17/2020 17867351 13.0-82.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 actualización 1d 12/17/2020 17551050 13.0-82.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 actualización 1c 12/17/2020 17325551 13.0-82.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 actualización 1b 10/06/2020 16850804 13.0-76.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0b 06/23/2020 16324942 13.0-71.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 7.0 GA 04/02/2020 15843807 13.0-71.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P04 11/19/2020 17167734 13.0-67.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P30 08/20/2020 16713306 13.0-67.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P20 04/28/2020 16075168 13.0-67.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 P10 12/05/2019 15160138 13.0-67.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 Actualización 3 08/20/2019 14320388 13.0-58.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.7 U2 04/11/2019 13006603 13.0-47.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6.5 GA 11/15/2016 4564106 13.0-47.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
ESXi 6,5 u1g 3/20/2018 7967591 13.0 47.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Actualización 3 de ESXi 6.0 2/24/2017 5050593 12.0-51.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G
Parche 11 de ESXi 6.0 Express 10/5/2017 6765062 12.0-56.x en adelante 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G

Tabla 3. VPX en Microsoft Hyper-V

Versión de Hyper-V SysID Modelos VPX
2012, 2012 R2, 2016, 2019 450020 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000

Tabla 4. Instancia VPX en KVM genérico

Versión KVM genérica SysID Modelos VPX
RHEL 7.4, RHEL 7.5 (de Citrix ADC versión 12.1 50.x en adelante), RHEL 7.6, RHEL 8.0, Ubuntu 16.04, Ubuntu 18.04, RHV 4.2 450070 VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G. VPX 25G, VPX 40G, VPX 100G

Puntos a tener en cuenta:

Tenga en cuenta los siguientes puntos al utilizar hipervisores KVM.

  • La instancia VPX está calificada para las versiones de versión de Hypervisor mencionadas en la tabla 1—4, y no para las versiones de parche de una versión. Sin embargo, se espera que la instancia de VPX funcione sin problemas con las versiones de parches de una versión compatible. Si no lo hace, registre un caso de soporte técnico para la solución de problemas y la depuración.

  • Antes de utilizar RHEL 7.6, realice los siguientes pasos en el host KVM:
    1. Modifique /etc/default/grub y agregue "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.

    2. Regenerar grub.cfg con el comando "# grub2-mkconfig -o /boot/grub2/grub.cfg".

    3. Reinicie el equipo host.

  • Antes de usar Ubuntu 18.04, complete los siguientes pasos en el host KVM:

    1. Modifique /etc/default/grub y agregue "kvm_intel.preemption_timer=0" a la variable GRUB_CMDLINE_LINUX.
    2. Regenerar grub.cfg con el comando "# grub-mkconfig -o /boot/grub/grub.cfg “.
    3. Reinicie el equipo host.

Tabla 5. Instancia VPX en AWS

Versión de AWS SysID Modelos VPX
N/D 450040 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL (VPX 8000, VPX 10G, VPX 15G y VPX 25G solo están disponibles con BYOL con tipos de instancia EC2 (C5, M5 y C5n)

Tabla 6. Instancia de VPX en Azure

Versión de Azure SysID Modelos VPX
N/D 450020 VPX 10, VPX 200, VPX 1000, VPX 3000, VPX BYOL

Tabla 7. Tabla de funciones VPX

Función VPX

  1. La compatibilidad con clústeres está disponible en SRIOV para interfaces orientadas al cliente y al servidor y no para el plano posterior.

  2. Los eventos deinterfaz DOWN no se registran en instancias de Citrix ADC VPX.

  3. Para LA estática, es posible que aún se envíe tráfico en la interfaz cuyo estado físico sea DOWN.

  4. Para LACP, el dispositivo del mismo nivel conoce el evento DOWN de la interfaz basado en el mecanismo de tiempo de espera de LACP.

    • Tiempo de espera corto: 3 segundos
    • Tiempo de espera largo: 90 segundos
  5. Para LACP, no comparta interfaces entre máquinas virtuales.

  6. Para la redirección dinámica, el tiempo de convergencia depende del Protocolo de redirección, ya que no se detectan eventos de vínculo.

  7. La funcionalidad Ruta estática supervisada falla si no vincula monitores a rutas estáticas porque el estado de la ruta depende del estado de la VLAN. El estado de la VLAN depende del estado del vínculo.

  8. La detección de fallos parciales no se produce en alta disponibilidad si se produce un error de enlace. Una afección cerebral dividida de alta disponibilidad podría ocurrir si se produce un fallo de enlace.

    • Cuando se genera cualquier evento de enlace (desactivar/habilitar, restablecer) desde una instancia VPX, el estado físico del enlace no cambia. Para LA estática, cualquier tráfico iniciado por el par se elimina en la instancia.

    • Para que funcione la función de etiquetado de VLAN, haga lo siguiente:

    En VMware ESX, establezca el ID de VLAN del grupo de puertos en 1-4095 en el vSwitch del servidor VMware ESX. Para obtener más información sobre la configuración de un ID de VLAN en el vSwitch del servidor VMware ESX, consulte Soluciones VLAN VMware ESX Server 3 802.1Q.

Tabla 8. Exploradores web compatibles

Sistema operativo Explorador y versiones
Windows 7 Internet Explorer- 8, 9, 10 y 11; Mozilla Firefox 3.6.25 y superior; Google Chrome- 15 y superior
Windows de 64 bits Internet Explorer: 8, 9; Google Chrome: 15 y superior
MAC Mozilla Firefox: 12 y superior; Safari: 5.1.3; Google Chrome: 15 y superior

Pautas de uso

Siga estas pautas de uso:

Consulte la sección Consideraciones sobre la CPU de VMware ESXi en el documento Prácticas recomendadas de rendimiento para VMware vSphere 6.5. Aquí hay un extracto:

  • No se recomienda que las máquinas virtuales con alta demanda de CPU/memoria se instalen en un Host/Cluster que esté sobrecomprometido.

  • En la mayoría de los entornos, ESXi permite niveles significativos de compromiso excesivo de CPU sin afectar el rendimiento de la máquina virtual. En un host, puede ejecutar más vCPU que el número total de núcleos de procesador físicos de ese host.

  • Si un host ESXi se satura de la CPU, es decir, las máquinas virtuales y otras cargas del host exigen todos los recursos de CPU que tiene el host, las cargas de trabajo sensibles a la latencia podrían no funcionar bien. En este caso, es posible que quiera reducir la carga de la CPU, por ejemplo apagando algunas máquinas virtuales o migrándolas a un host diferente (o permitiendo que DRS las migre automáticamente).

  • Citrix recomienda la última versión de compatibilidad de hardware para aprovechar los conjuntos de funciones más recientes del hipervisor ESXi para la máquina virtual. Para obtener más información sobre la compatibilidad de hardware y versiones de ESXi, consulte la documentación de VMware.

  • Citrix ADC VPX es un dispositivo virtual de alto rendimiento y sensible a la latencia. Para ofrecer el rendimiento esperado, el dispositivo requiere reserva de vCPU, reserva de memoria, fijación de vCPU en el host. Además, el hipersubproceso debe estar inhabilitado en el host. Si el host no cumple estos requisitos, se producen problemas como conmutación por error de alta disponibilidad, picos de CPU dentro de la instancia VPX, lentitud en el acceso a la CLI VPX, fallo del demonio de pit boss, caídas de paquetes y bajo rendimiento.

Un Hypervisor se considera sobreaprovisionado si se cumple una de las dos condiciones siguientes:

  • El número total de núcleos virtuales (vCPU) aprovisionados en el host es mayor que el número total de núcleos físicos (PCPU).

  • El número total de máquinas virtuales aprovisionadas consume más VCPU que el número total de PCPU.

    Si una instancia está sobreaprovisionada, es posible que el hipervisor no garantice los recursos reservados (como CPU, memoria y otros) para la instancia debido a los gastos generales de programación del hipervisor, errores o limitaciones con el hipervisor. Este comportamiento puede provocar la falta de recursos de CPU para Citrix ADC y puede provocar los problemas mencionados en el primer punto de las Directrices de uso. Como administradores, se recomienda reducir el alquiler en el host para que el número total de vCPU aprovisionadas en el host sea menor o igual al número total de PCPU.

    Ejemplo

    Para el Hypervisor ESX, si el parámetro %RDY% de una vCPU VPX es mayor que 0 en la salida del comando esxtop, se dice que el host ESX tiene gastos generales de programación, lo que puede causar problemas relacionados con la latencia para el VPX.

    En tal situación, reduzca el arrendamiento en el host para que %RDY% vuelva a 0 siempre. Alternativamente, póngase en contacto con el proveedor del Hypervisor para seleccionar el motivo por el que no se ha cumplido la reserva de recursos realizada.

  • La adición en caliente solo se admite para interfaces PV y SRIOV con Citrix ADC en AWS. Las instancias VPX con interfaces ENA no admiten conexión en marcha, y el comportamiento de las instancias puede ser impredecible si se intenta conectar en marcha.
  • La eliminación en caliente a través de la consola Web de AWS o de la interfaz CLI de AWS no es compatible con las interfaces PV, SRIOV y ENA para Citrix ADC. El comportamiento de las instancias puede ser impredecible si se intenta eliminar en caliente.

Comandos para controlar el uso de la CPU del motor de paquetes

Puede utilizar dos comandos (set ns vpxparam y show ns vpxparam) para controlar el comportamiento de uso de CPU del motor de paquetes (no administrativo) de las instancias VPX en entornos de hipervisor y nube:

  • set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]

    Permitir que cada máquina virtual utilice recursos de CPU que se hayan asignado a otra máquina virtual pero que no se estén mediante.

    Set ns vpxparam parámetros:

    -cpuyield: Libere o no libere recursos de CPU asignados pero no utilizados.

    • : Permitir que otra VM utilice recursos de CPU asignados pero no utilizados.

    • NO: Reserve todos los recursos de CPU para la máquina virtual a la que se han asignado. Esta opción muestra un porcentaje mayor en entornos de Hypervisor y nube para el uso de CPU VPX.

    • DETERMINADO: No.

    Nota

    En todas las plataformas Citrix ADC VPX, el uso de vCPU en el sistema host es del 100%. Escriba el comando set ns vpxparam –cpuyield YES para anular este uso.

    Si desea configurar los nodos de clúster en “yield”, debe realizar las siguientes configuraciones adicionales en CCO:

    • Si se forma un clúster, todos los nodos aparecen con “yield=Default”.
    • Si se forma un clúster mediante los nodos que ya están configurados en “Yield=yes”, los nodos se añaden al clúster mediante el rendimiento “DEFAULT”.

    Nota:

    Si desea establecer los nodos de clúster en “yield=yes”, solo puede realizar configuraciones adecuadas después de formar el clúster, pero no antes de que se forme el clúster.

    -masterclockcpu1: Puede mover la fuente de reloj principal de la CPU0 (CPU de administración) a la CPU1. Este parámetro tiene las siguientes opciones:

    • : Permite que la máquina virtual mueva la fuente de reloj principal de CPU0 a CPU1.

    • NO: La máquina virtual utiliza CPU0 para la fuente de reloj principal. De forma predeterminada, CPU0 es la principal fuente de reloj.

  • show ns vpxparam

    Muestra la vpxparam configuración actual.

Otras referencias

Tabla de compatibilidad y pautas de uso