-
-
-
Configuración de Citrix ADC para Citrix Virtual Apps and Desktops
-
Preferencia de zona alimentada de Equilibrio de carga de servidor global (GSLB)
-
Implemente una plataforma de publicidad digital en AWS con Citrix ADC
-
Mejorar el análisis de Clickstream en AWS mediante Citrix ADC
-
Citrix ADC en una nube privada administrada por Microsoft Windows Azure Pack y Cisco ACI
-
-
Implementar una instancia de Citrix ADC VPX
-
Instalar una instancia de Citrix ADC VPX en un servidor desnudo
-
Instalar una instancia de Citrix ADC VPX en Citrix Hypervisor
-
Instalar una instancia de Citrix ADC VPX en la nube de VMware en AWS
-
Instalar una instancia de Citrix ADC VPX en servidores Microsoft Hyper-V
-
Instalar una instancia de Citrix ADC VPX en la plataforma Linux-KVM
-
Requisitos previos para instalar dispositivos virtuales Citrix ADC VPX en la plataforma Linux-KVM
-
Aprovisionamiento de Citrix ADC Virtual Appliance mediante OpenStack
-
Aprovisionamiento de Citrix ADC Virtual Appliance mediante Virtual Machine Manager
-
Configuración de Citrix ADC Virtual Appliances para utilizar la interfaz de red SR-IOV
-
Configuración de Citrix ADC Virtual Appliances para utilizar la interfaz de red PCI Passthrough
-
Aprovisionamiento de Citrix ADC Virtual Appliance mediante el programa virsh
-
Aprovisionamiento de Citrix ADC Virtual Appliance con SR-IOV, en OpenStack
-
-
Implementar una instancia de Citrix ADC VPX en AWS
-
Implementar una instancia independiente de Citrix ADC VPX en AWS
-
Servidores de equilibrio de carga en diferentes zonas de disponibilidad
-
Implementar un par de alta disponibilidad VPX con direcciones IP privadas en diferentes zonas de AWS
-
Agregar el servicio de escalado automático de AWS de back-end
-
Configurar una instancia de Citrix ADC VPX para utilizar la interfaz de red SR-IOV
-
Configurar una instancia de Citrix ADC VPX para utilizar redes mejoradas con AWS ENA
-
Implementar una instancia de Citrix ADC VPX en Microsoft Azure
-
Arquitectura de red para instancias de Citrix ADC VPX en Microsoft Azure
-
Configurar varias direcciones IP para una instancia independiente de Citrix ADC VPX
-
Configurar una configuración de alta disponibilidad con varias direcciones IP y NIC
-
Configurar una instancia de Citrix ADC VPX para usar redes aceleradas de Azure
-
Configurar nodos HA-INC mediante la plantilla de alta disponibilidad de Citrix con ILB de Azure
-
Configurar GSLB en una configuración de alta disponibilidad en espera activa
-
Configurar grupos de direcciones (IIP) para un dispositivo Citrix Gateway
-
Scripts de PowerShell adicionales para la implementación de Azure
-
Implementar una instancia de Citrix ADC VPX en Google Cloud Platform
-
Automatizar la implementación y las configuraciones de Citrix ADC
-
Soluciones para proveedores de servicios de telecomunicaciones
-
Tráfico de plano de control de equilibrio de carga basado en los protocolos de diameter, SIP y SMPP
-
Utilización del ancho de banda mediante la funcionalidad de redirección de caché
-
Optimización TCP de Citrix ADC
-
Escalabilidad
-
Autenticación, autorización y auditoría del tráfico de aplicaciones
-
Cómo funciona la autenticación, la autorización y la auditoría
-
Componentes básicos de configuración de autenticación, autorización y auditoría
-
Autorizar el acceso de usuario a los recursos de la aplicación
-
Citrix ADC como proxy del servicio de federación de Active Directory
-
Citrix Gateway local como proveedor de identidades para Citrix Cloud
-
Compatibilidad de configuración para el atributo de cookie SameSite
-
Configuración de autenticación, autorización y auditoría para protocolos de uso común
-
Solucionar problemas relacionados con la autenticación y la autorización
-
-
-
-
Configuración de la expresión de directiva avanzada: Introducción
-
Expresiones de directiva avanzadas: Trabajar con fechas, horas y números
-
Expresiones de directiva avanzadas: Análisis de datos HTTP, TCP y UDP
-
Expresiones de directiva avanzadas: Análisis de certificados SSL
-
Expresiones de directivas avanzadas: Direcciones IP y MAC, rendimiento, ID de VLAN
-
Expresiones de directiva avanzadas: Funciones de análisis de flujo
-
Ejemplos de resumen de expresiones y directivas de sintaxis predeterminadas
-
Ejemplos de tutoriales de directivas de sintaxis predeterminadas para reescribir
-
Migración de las reglas mod_rewrite de Apache a la sintaxis predeterminada
-
-
-
-
Traducir la dirección IP de destino de una solicitud a la dirección IP de origen
-
-
Compatibilidad con la configuración de Citrix ADC en un clúster
-
-
Administración del clúster de Citrix ADC
-
Grupos de nodos para configuraciones manchadas y parcialmente rayadas
-
Desactivación de la dirección en el plano anterior del clúster
-
Quitar un nodo de un clúster implementado mediante la agregación de vínculos de clúster
-
Supervisión de la configuración del clúster mediante SNMP MIB con enlace SNMP
-
Supervisión de errores de propagación de comandos en una implementación de clúster
-
Compatibilidad con logotipos listos para IPv6 para clústeres
-
Enlace de interfaz VRRP en un clúster activo de un solo nodo
-
Casos de configuración y uso del clúster
-
Migración de una configuración de alta disponibilidad a una configuración de clúster
-
Interfaces comunes para cliente y servidor e interfaces dedicadas para plano anterior
-
Conmutador común para cliente y servidor y conmutador dedicado para plano anterior
-
Servicios de supervisión en un clúster mediante supervisión de rutas
-
Copia de seguridad y restauración de la configuración del clúster
-
-
-
Caso de uso 1: Configurar DataStream para una arquitectura de base de datos primaria/secundaria
-
Caso de uso 2: Configurar el método de token de equilibrio de carga para DataStream
-
Caso de uso 3: Registrar transacciones MSSQL en modo transparente
-
Caso de uso 4: Equilibrio de carga específico de base de datos
-
-
Configurar Citrix ADC como un solucionador de stub-aware no validador de seguridad
-
Soporte de tramas jumbo para DNS para manejar respuestas de tamaños grandes
-
Configurar el almacenamiento en caché negativo de registros DNS
-
Equilibrio de carga global del servidor
-
Configurar entidades GSLB individualmente
-
Caso de uso: Implementación de un grupo de servicios de escalado automático basado en direcciones IP
-
-
Estado de servicio y servidor virtual de equilibrio de carga
-
Insertar atributos de cookie a las cookies generadas por ADC
-
Proteger una configuración de equilibrio de carga contra fallos
-
Administrar el tráfico del cliente
-
Configurar servidores virtuales de equilibrio de carga sin sesión
-
Reescritura de puertos y protocolos para la redirección HTTP
-
Insertar la dirección IP y el puerto de un servidor virtual en el encabezado de solicitud
-
Usar una IP de origen especificada para la comunicación de back-end
-
Establecer un valor de tiempo de espera para las conexiones de cliente inactivas
-
Administrar el tráfico del cliente sobre la base de la tasa de tráfico
-
Usar un puerto de origen de un intervalo de puertos especificado para la comunicación de back-end
-
Configurar la persistencia de IP de origen para la comunicación de back-end
-
-
Configuración avanzada de equilibrio de carga
-
Incremente gradualmente la carga en un nuevo servicio con inicio lento a nivel de servidor virtual
-
Proteja las aplicaciones en servidores protegidos contra sobretensiones de tráfico
-
Habilitar la limpieza de las conexiones de servidor virtual y servicio
-
Habilitar o inhabilitar la sesión de persistencia en los servicios TROFS
-
Habilitar la comprobación externa del estado de TCP para servidores virtuales UDP
-
Mantener la conexión de cliente para varias solicitudes de cliente
-
Inserte la dirección IP del cliente en el encabezado de solicitud
-
Usar la dirección IP de origen del cliente al conectarse al servidor
-
Configurar el puerto de origen para las conexiones del lado del servidor
-
Establecer un límite en el número de solicitudes por conexión al servidor
-
Establecer un valor de umbral para los monitores enlazados a un servicio
-
Establecer un valor de tiempo de espera para las conexiones de cliente inactivas
-
Establecer un valor de tiempo de espera para las conexiones de servidor inactivas
-
Establecer un límite en el uso del ancho de banda por parte de los clientes
-
Conservar el identificador de VLAN para la transparencia de VLAN
-
-
Configurar monitores en una configuración de equilibrio de carga
-
Configurar el equilibrio de carga para los protocolos de uso común
-
Caso de uso 3: Configurar el equilibrio de carga en el modo de retorno directo del servidor
-
Caso de uso 6: Configurar el equilibrio de carga en modo DSR para redes IPv6 mediante el campo TOS
-
Caso de uso 7: Configurar el equilibrio de carga en modo DSR mediante IP sobre IP
-
Caso de uso 8: Configurar el equilibrio de carga en modo de un brazo
-
Caso de uso 9: Configurar el equilibrio de carga en el modo en línea
-
Caso de uso 10: Equilibrio de carga de servidores del sistema de detección de intrusiones
-
Caso de uso 11: Aislamiento del tráfico de red mediante directivas de escucha
-
Caso de uso 12: Configurar XenDesktop para el equilibrio de carga
-
Caso de uso 13: Configurar XenApp para el equilibrio de carga
-
Caso de uso 14: Asistente para ShareFile para equilibrio de carga Citrix ShareFile
-
-
-
Compatibilidad con el protocolo TLSv1.3 tal como se define en RFC 8446
-
Tabla compatibilidad con certificados de servidor en el dispositivo ADC
-
Compatibilidad con plataformas basadas en chips Intel Coleto SSL
-
Soporte para el módulo de seguridad de hardware de red Gemalto SafeNet
-
-
-
-
-
Configuración de un túnel de conector de CloudBridge entre dos centros de datos
-
Configuración de CloudBridge Connector entre Datacenter y AWS Cloud
-
Configuración de un túnel de conector de CloudBridge entre un centro de datos y Azure Cloud
-
Configuración de CloudBridge Connector Tunnel entre Datacenter y SoftLayer Enterprise Cloud
-
Diagnóstico y solución de problemas del túnel del conector de CloudBridge
-
-
Puntos a tener en cuenta para una configuración de alta disponibilidad
-
Sincronizar archivos de configuración en una configuración de alta disponibilidad
-
Restricción del tráfico de sincronización de alta disponibilidad a una VLAN
-
Configuración de nodos de alta disponibilidad en diferentes subredes
-
Limitación de fallas causadas por monitores de ruta en modo no INC
-
Configuración del conjunto de interfaces de conmutación por error
-
Descripción del cálculo de comprobación de estado de alta disponibilidad
-
Administración de mensajes de latido de alta disponibilidad en un dispositivo Citrix ADC
-
Quitar y reemplazar un dispositivo Citrix ADC en una instalación de alta disponibilidad
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Escalabilidad
Debido a que la optimización TCP requiere muchos recursos, es posible que un único dispositivo Citrix ADC, incluso un dispositivo —de gama alta, no pueda soportar altos rendimientos de GI-LAN. Para ampliar la capacidad de la red, puede implementar dispositivos Citrix ADC en una formación de clúster N+1. En una implementación de clúster, los dispositivos Citrix ADC funcionan juntos como una única imagen del sistema. El tráfico del cliente se distribuye a través de los nodos del clúster con la ayuda de un dispositivo de conmutador externo.
Topología
La figura 1 es un ejemplo de un clúster que consta de cuatro nodos T1300-40G.
La configuración mostrada en la Imagen 1 tiene las siguientes propiedades:
- Todos los nodos del clúster pertenecen a la misma red (también conocida como clúster L2).
- El tráfico del plano de datos y del backplane se maneja mediante diferentes conmutadores.
- Suponiendo que el rendimiento de GI-LAN es de 200 Gbps y que un dispositivo T1300-40G puede soportar 80 Gbps de rendimiento, necesitamos tres dispositivos T1300-40G. Para proporcionar redundancia en caso de fallo de nodo de clúster único, implementamos cuatro dispositivos en total.
- Cada nodo recibirá hasta 67 Gbps de tráfico (50 Gbps en condiciones normales de funcionamiento y 67 Gbps en caso de fallo de nodo de clúster único), por lo que necesita conexiones de 2 x 40 Gbps al conmutador ascendente. Para proporcionar redundancia en caso de falla del switch, implementamos un par de switches ascendentes y duplicamos el número de conexiones.
- La agregación de vínculos de clúster (CLAG) se utiliza para distribuir el tráfico entre los nodos de clúster. Un único CLAG maneja tanto el tráfico de cliente como el de servidor. La redundancia de enlaces está habilitada en el CLAG, por lo que solo se selecciona un “subcanal” en un momento dado y se encarga del tráfico. Si algún enlace falla o el rendimiento cae por debajo del umbral especificado, se selecciona el otro subcanal.
- El conmutador ascendente realiza un equilibrio de carga de canal de puerto simétrico (por ejemplo, el algoritmo de origen dest-ip de solo IP de Cisco IOS 7.0 (8) N1 (1)) de modo que los flujos de tráfico hacia adelante y hacia atrás sean manejados por el mismo nodo de clúster. Esta propiedad es deseable porque elimina el reordenamiento de paquetes, lo que degradaría el rendimiento TCP.
- Se espera que el cincuenta por ciento del tráfico de datos se dirigirá al plano anterior, lo que significa que cada nodo conducirá hasta 34 Gbps a otros nodos de clúster (25 Gbps en condiciones normales de funcionamiento y 34 Gbps en caso de fallo de nodo de clúster único). Por lo tanto, cada nodo necesita al menos 4x10G conexiones al conmutador de plano anterior. Para proporcionar redundancia en caso de error del conmutador, implementamos un par de conmutadores de plano anterior y duplicamos el número de conexiones. Actualmente, la redundancia de enlace no es compatible con el plano anterior, por lo que se quiere Cisco VPC o tecnología equivalente para lograr la redundancia a nivel de conmutador.
- El tamaño de MTU de los paquetes dirigidos es de 1578 bytes, por lo que los conmutadores de plano anterior deben admitir una MTU de más de 1500 bytes.
Nota: El diseño representado en la figura 1 también es aplicable a los dispositivos T1120 y T1310. Para T1310 usaríamos interfaces 40GbE para las conexiones de plano anterior, ya que carece de puertos 10GbE.
Nota: Si bien en este documento se utiliza Cisco VPC como ejemplo, si se trabaja con conmutadores que no son de Cisco podrían utilizarse soluciones equivalentes alternativas, como el MLAG de Juniper.
Nota: Aunque otras topologías como ECMP en lugar de CLAG son posibles, actualmente no se admiten para este caso de uso particular.
Configuración de la optimización TCP en un clúster Citrix ADC T1000
Una vez completadas la instalación física, la conectividad física, la instalación de software y las licencias, puede continuar con la configuración del clúster real. Las configuraciones descritas a continuación se aplican al clúster representado en la Imagen 1.
Nota: Para obtener más información acerca de la configuración del clúster, consulte Configurar un clúster de Citrix ADC.
Suponga que los cuatro nodos T1300 de la Imagen 1 tienen las siguientes direcciones NSIP:
Cuatro nodos T1300 con dirección NSIP:
T1300-40-1:10.102.29.60
T1300-40-2:10.102.29.70
T1300-40-3:10.102.29.80
T1300-40-4:10.102.29.90
El clúster se administrará a través de la dirección IP del clúster (CLIP), que se supone que es 10.78.16.61.
Configuración del clúster
Para comenzar a configurar el clúster que se muestra en la Imagen 1, inicie sesión en el primer dispositivo que quiera agregar al clúster (por ejemplo, T1300-40-1) y haga lo siguiente.
-
En la solicitud de comando, escriba los siguientes comandos:
Comando:
> add cluster instance 1 > add cluster node 0 10.102.29.60 -state ACTIVE > add ns ip 10.102.29.61 255.255.255.255 -type clip > enable cluster instance 1 > save ns config > reboot –warm
-
Después de reiniciar el dispositivo, conéctese a la dirección IP del clúster (CLIP) y agregue el resto de los nodos al clúster:
Comando:
> add cluster node 1 10.102.29.70 -state ACTIVE > add cluster node 2 10.102.29.80 -state ACTIVE > add cluster node 3 10.102.29.90 –state ACTIVE > save ns config
-
Conéctese a la dirección NSIP de cada uno de los nodos recién agregados y únase al clúster:
Comando:
> join cluster -clip 10.102.29.61 -password nsroot > save ns config > reboot –warm
-
Después de reiniciar los nodos, continúe con la configuración del plano posterior. En la dirección IP del clúster, escriba los siguientes comandos para crear un canal LACP para el vínculo de backplane de cada nodo del clúster:
Comando:
> set interface 0/10/[1-8] –lacpkey 1 –lacpmode ACTIVE > set interface 1/10/[1-8] –lacpkey 2 –lacpmode ACTIVE > set interface 2/10/[1-8] –lacpkey 3 –lacpmode ACTIVE > set interface 3/10/[1-8] –lacpkey 4 –lacpmode ACTIVE
-
Del mismo modo, configure LA dinámica y VPC en los conmutadores del plano posterior. Asegúrese de que la MTU de las interfaces del conmutador de backplane tenga al menos 1578 bytes.
-
Verifique que los canales estén operativos:
Comando:
> show channel 0/LA/1 > show channel 1/LA/2 > show channel 2/LA/3 > show channel 3/LA/4
-
Configure las interfaces del plano posterior del nodo del clúster.
Comando:
> set cluster node 0 -backplane 0/LA/1 > set cluster node 1 -backplane 1/LA/2 > set cluster node 2 -backplane 2/LA/3 > set cluster node 3 –backplane 3/LA/4
-
Compruebe el estado del clúster y compruebe que el clúster está operativo:
> show cluster instance > show cluster node
Para obtener más información sobre la configuración del clúster, consulte Configurar un clúster de Citrix ADC
Distribuir tráfico entre nodos de clúster
Después de haber formado el clúster Citrix ADC, implemente la Agregación de vínculos de clúster (CLAG) para distribuir el tráfico entre los nodos de clúster. Un único enlace CLAG manejará tanto el tráfico de cliente como el de servidor.
En la dirección IP del clúster, ejecute los siguientes comandos para crear el grupo de agregación de vínculos de clúster (CLAG) que se muestra en la Imagen 1:
Comando:
> set interface 0/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 1/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 2/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
> set interface 3/40/[1-4] -lacpMode active -lacpKey 5 -lagType Cluster
Configure la agregación de vínculos dinámicos en los conmutadores externos.
A continuación, habilite Redundancia de vínculos de la siguiente manera:
Código:
> set channel CLA/1 -linkRedundancy ON -lrMinThroughput 240000
Por último, compruebe el estado del canal introduciendo:
Comando:
> show channel CLA/1
El canal debe estar UP y el rendimiento real debe ser 320000.
Para obtener más información acerca de la agregación de vínculos de clúster, consulte los temas siguientes:
Debido a que vamos a utilizar el reenvío basado en MAC (MBF), configurar un conjunto de vínculos y vincularlo al grupo CLAG de la siguiente manera:
Comando:
> add linkset LS/1
> bind linkset LS/1 -ifnum CLA/1
Para obtener más información acerca de los conjuntos de vínculos, consulte los siguientes temas:
Configuración de direcciones VLAN e IP
Utilizaremos la configuración IP de rayas, lo que significa que las direcciones IP están activas en todos los nodos (configuración predeterminada). Consulte Configuraciones rayadas, parcialmente rayadas y manchadas para obtener más información sobre este tema.
-
Agregue los SNIP de entrada y salida:
Comando:
> add ns ip 172.16.30.254 255.255.255.0 –type SNIP > add ns ip 172.16.31.254 255.255.255.0 –type SNIP > add ns ip6 fd00:172:16:30::254/112 –type SNIP > add ns ip6 fd00:172:16:31::254/112 –type SNIP
-
Agregue las VLAN de entrada y salida correspondientes:
Comando:
> add vlan 30 -aliasName wireless > add vlan 31 -aliasName internet
-
Vincular VLAN con IPs y conjunto de vínculos:
Comando:
> bind vlan 31 -ifnum LS/1 -tagged > bind vlan 30 -ifnum LS/1 -tagged > bind vlan 30 -IPAddress 172.16.30.254 255.255.255.0 > bind vlan 31 -IPAddress 172.16.31.254 255.255.255.0 > bind vlan 30 -IPAddress fd00:172:16:30::254/112 > bind vlan 31 -IPAddress fd00:172:16:31::254/112
Se pueden agregar más VLAN de entrada y salida si es necesario.
Configuración de Optimización TCP
En este punto, hemos aplicado todos los comandos específicos del clúster. Para completar la configuración, siga los pasos descritos en Configuración de optimización TCP.
Configuración de Enrutamiento Dinámico
Un clúster de Citrix ADC se puede integrar en el entorno de enrutamiento dinámico de la red del cliente. A continuación se muestra un ejemplo de configuración de enrutamiento dinámico mediante el protocolo de enrutamiento BGP (también se admite OSPF).
-
Desde la dirección CLIP, habilite BGP y el enrutamiento dinámico en las direcciones IP de entrada y salida:
Comando:
> enable ns feature bgp > set ns ip 172.16.30.254 –dynamicRouting ENABLED > set ns ip 172.16.31.254 –dynamicRouting ENABLED
-
Abra vtysh y configure BGP para el lado de salida:
Código:
> shell root@ns# vtysh ns# configurar terminal ns(config)# router bgp 65531 ns(config-router)# network 10.0.0.0/24 ns(config-router)# neighbor 172.16.31.100 remote-as 65530 ns(config-router)# neighbor 172.16.31.100 update-source 172.16.31.254 ns(config-router)# exit ns(config)# ns route-install propagate ns(config)# ns route-install default ns(config)# ns route-install bgp ns(config)# exit
-
Configure el peer BGP del lado de salida para anunciar la ruta predeterminada al clúster de Citrix ADC. Por ejemplo:
Comando:
router bgp 65530 bgp router-id 172.16.31.100 network 0.0.0.0/0 neighbor 172.16.31.254 remote-as 65531
-
Siga pasos similares para configurar el lado de entrada.
-
Desde vtysh, compruebe que la configuración se propaga a todos los nodos del clúster, introduciendo:
Comando:
ns# show running-config
-
Finalmente, inicie sesión en la dirección NSIP de cada nodo del clúster y verifique las rutas anunciadas desde el peer BGP:
Comando:
> show route | grep BGP
Compartir
Compartir
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.