-
-
-
Configuración de Citrix ADC para Citrix Virtual Apps and Desktops
-
Preferencia de zona alimentada de Equilibrio de carga de servidor global (GSLB)
-
Implemente una plataforma de publicidad digital en AWS con Citrix ADC
-
Mejorar el análisis de Clickstream en AWS mediante Citrix ADC
-
Citrix ADC en una nube privada administrada por Microsoft Windows Azure Pack y Cisco ACI
-
-
Implementar una instancia de Citrix ADC VPX
-
Instalar una instancia de Citrix ADC VPX en un servidor desnudo
-
Instalar una instancia de Citrix ADC VPX en Citrix Hypervisor
-
Instalar una instancia de Citrix ADC VPX en la nube de VMware en AWS
-
Instalar una instancia de Citrix ADC VPX en servidores Microsoft Hyper-V
-
Instalar una instancia de Citrix ADC VPX en la plataforma Linux-KVM
-
Requisitos previos para instalar dispositivos virtuales Citrix ADC VPX en la plataforma Linux-KVM
-
Aprovisionamiento de Citrix ADC Virtual Appliance mediante OpenStack
-
Aprovisionamiento de Citrix ADC Virtual Appliance mediante Virtual Machine Manager
-
Configuración de Citrix ADC Virtual Appliances para utilizar la interfaz de red SR-IOV
-
Configuración de Citrix ADC Virtual Appliances para utilizar la interfaz de red PCI Passthrough
-
Aprovisionamiento de Citrix ADC Virtual Appliance mediante el programa virsh
-
Aprovisionamiento de Citrix ADC Virtual Appliance con SR-IOV, en OpenStack
-
-
Implementar una instancia de Citrix ADC VPX en AWS
-
Implementar una instancia independiente de Citrix ADC VPX en AWS
-
Servidores de equilibrio de carga en diferentes zonas de disponibilidad
-
Implementar un par de alta disponibilidad VPX con direcciones IP privadas en diferentes zonas de AWS
-
Agregar el servicio de escalado automático de AWS de back-end
-
Configurar una instancia de Citrix ADC VPX para utilizar la interfaz de red SR-IOV
-
Configurar una instancia de Citrix ADC VPX para utilizar redes mejoradas con AWS ENA
-
Implementar una instancia de Citrix ADC VPX en Microsoft Azure
-
Arquitectura de red para instancias de Citrix ADC VPX en Microsoft Azure
-
Configurar varias direcciones IP para una instancia independiente de Citrix ADC VPX
-
Configurar una configuración de alta disponibilidad con varias direcciones IP y NIC
-
Configurar una instancia de Citrix ADC VPX para usar redes aceleradas de Azure
-
Configurar nodos HA-INC mediante la plantilla de alta disponibilidad de Citrix con ILB de Azure
-
Configurar GSLB en una configuración de alta disponibilidad en espera activa
-
Configurar grupos de direcciones (IIP) para un dispositivo Citrix Gateway
-
Scripts de PowerShell adicionales para la implementación de Azure
-
Implementar una instancia de Citrix ADC VPX en Google Cloud Platform
-
Automatizar la implementación y las configuraciones de Citrix ADC
-
Soluciones para proveedores de servicios de telecomunicaciones
-
Tráfico de plano de control de equilibrio de carga basado en los protocolos de diameter, SIP y SMPP
-
Utilización del ancho de banda mediante la funcionalidad de redirección de caché
-
Optimización TCP de Citrix ADC
-
Autenticación, autorización y auditoría del tráfico de aplicaciones
-
Cómo funciona la autenticación, la autorización y la auditoría
-
Componentes básicos de configuración de autenticación, autorización y auditoría
-
Autorizar el acceso de usuario a los recursos de la aplicación
-
Citrix ADC como proxy del servicio de federación de Active Directory
-
Citrix Gateway local como proveedor de identidades para Citrix Cloud
-
Compatibilidad de configuración para el atributo de cookie SameSite
-
Configuración de autenticación, autorización y auditoría para protocolos de uso común
-
Solucionar problemas relacionados con la autenticación y la autorización
-
-
-
-
Configuración de la expresión de directiva avanzada: Introducción
-
Expresiones de directiva avanzadas: Trabajar con fechas, horas y números
-
Expresiones de directiva avanzadas: Análisis de datos HTTP, TCP y UDP
-
Expresiones de directiva avanzadas: Análisis de certificados SSL
-
Expresiones de directivas avanzadas: Direcciones IP y MAC, rendimiento, ID de VLAN
-
Expresiones de directiva avanzadas: Funciones de análisis de flujo
-
Ejemplos de resumen de expresiones y directivas de sintaxis predeterminadas
-
Ejemplos de tutoriales de directivas de sintaxis predeterminadas para reescribir
-
Migración de las reglas mod_rewrite de Apache a la sintaxis predeterminada
-
-
-
-
Traducir la dirección IP de destino de una solicitud a la dirección IP de origen
-
-
Compatibilidad con la configuración de Citrix ADC en un clúster
-
-
Administración del clúster de Citrix ADC
-
Grupos de nodos para configuraciones manchadas y parcialmente rayadas
-
Desactivación de la dirección en el plano anterior del clúster
-
Quitar un nodo de un clúster implementado mediante la agregación de vínculos de clúster
-
Supervisión de la configuración del clúster mediante SNMP MIB con enlace SNMP
-
Supervisión de errores de propagación de comandos en una implementación de clúster
-
Compatibilidad con logotipos listos para IPv6 para clústeres
-
Enlace de interfaz VRRP en un clúster activo de un solo nodo
-
Casos de configuración y uso del clúster
-
Migración de una configuración de alta disponibilidad a una configuración de clúster
-
Interfaces comunes para cliente y servidor e interfaces dedicadas para plano anterior
-
Conmutador común para cliente y servidor y conmutador dedicado para plano anterior
-
Servicios de supervisión en un clúster mediante supervisión de rutas
-
Copia de seguridad y restauración de la configuración del clúster
-
-
-
Caso de uso 1: Configurar DataStream para una arquitectura de base de datos primaria/secundaria
-
Caso de uso 2: Configurar el método de token de equilibrio de carga para DataStream
-
Caso de uso 3: Registrar transacciones MSSQL en modo transparente
-
Caso de uso 4: Equilibrio de carga específico de base de datos
-
-
Configurar Citrix ADC como un solucionador de stub-aware no validador de seguridad
-
Soporte de tramas jumbo para DNS para manejar respuestas de tamaños grandes
-
Configurar el almacenamiento en caché negativo de registros DNS
-
Equilibrio de carga global del servidor
-
Configurar entidades GSLB individualmente
-
Caso de uso: Implementación de un grupo de servicios de escalado automático basado en direcciones IP
-
-
Estado de servicio y servidor virtual de equilibrio de carga
-
Insertar atributos de cookie a las cookies generadas por ADC
-
Proteger una configuración de equilibrio de carga contra fallos
-
Administrar el tráfico del cliente
-
Configurar servidores virtuales de equilibrio de carga sin sesión
-
Reescritura de puertos y protocolos para la redirección HTTP
-
Insertar la dirección IP y el puerto de un servidor virtual en el encabezado de solicitud
-
Usar una IP de origen especificada para la comunicación de back-end
-
Establecer un valor de tiempo de espera para las conexiones de cliente inactivas
-
Administrar el tráfico del cliente sobre la base de la tasa de tráfico
-
Usar un puerto de origen de un intervalo de puertos especificado para la comunicación de back-end
-
Configurar la persistencia de IP de origen para la comunicación de back-end
-
-
Configuración avanzada de equilibrio de carga
-
Incremente gradualmente la carga en un nuevo servicio con inicio lento a nivel de servidor virtual
-
Proteja las aplicaciones en servidores protegidos contra sobretensiones de tráfico
-
Habilitar la limpieza de las conexiones de servidor virtual y servicio
-
Habilitar o inhabilitar la sesión de persistencia en los servicios TROFS
-
Habilitar la comprobación externa del estado de TCP para servidores virtuales UDP
-
Mantener la conexión de cliente para varias solicitudes de cliente
-
Inserte la dirección IP del cliente en el encabezado de solicitud
-
Usar la dirección IP de origen del cliente al conectarse al servidor
-
Configurar el puerto de origen para las conexiones del lado del servidor
-
Establecer un límite en el número de solicitudes por conexión al servidor
-
Establecer un valor de umbral para los monitores enlazados a un servicio
-
Establecer un valor de tiempo de espera para las conexiones de cliente inactivas
-
Establecer un valor de tiempo de espera para las conexiones de servidor inactivas
-
Establecer un límite en el uso del ancho de banda por parte de los clientes
-
Conservar el identificador de VLAN para la transparencia de VLAN
-
-
Configurar monitores en una configuración de equilibrio de carga
-
Configurar el equilibrio de carga para los protocolos de uso común
-
Caso de uso 3: Configurar el equilibrio de carga en el modo de retorno directo del servidor
-
Caso de uso 6: Configurar el equilibrio de carga en modo DSR para redes IPv6 mediante el campo TOS
-
Caso de uso 7: Configurar el equilibrio de carga en modo DSR mediante IP sobre IP
-
Caso de uso 8: Configurar el equilibrio de carga en modo de un brazo
-
Caso de uso 9: Configurar el equilibrio de carga en el modo en línea
-
Caso de uso 10: Equilibrio de carga de servidores del sistema de detección de intrusiones
-
Caso de uso 11: Aislamiento del tráfico de red mediante directivas de escucha
-
Caso de uso 12: Configurar XenDesktop para el equilibrio de carga
-
Caso de uso 13: Configurar XenApp para el equilibrio de carga
-
Caso de uso 14: Asistente para ShareFile para equilibrio de carga Citrix ShareFile
-
-
-
Compatibilidad con el protocolo TLSv1.3 tal como se define en RFC 8446
-
Tabla compatibilidad con certificados de servidor en el dispositivo ADC
-
Compatibilidad con plataformas basadas en chips Intel Coleto SSL
-
Soporte para el módulo de seguridad de hardware de red Gemalto SafeNet
-
-
-
-
-
Configuración de un túnel de conector de CloudBridge entre dos centros de datos
-
Configuración de CloudBridge Connector entre Datacenter y AWS Cloud
-
Configuración de un túnel de conector de CloudBridge entre un centro de datos y Azure Cloud
-
Configuración de CloudBridge Connector Tunnel entre Datacenter y SoftLayer Enterprise Cloud
-
Diagnóstico y solución de problemas del túnel del conector de CloudBridge
-
-
Puntos a tener en cuenta para una configuración de alta disponibilidad
-
Sincronizar archivos de configuración en una configuración de alta disponibilidad
-
Restricción del tráfico de sincronización de alta disponibilidad a una VLAN
-
Configuración de nodos de alta disponibilidad en diferentes subredes
-
Limitación de fallas causadas por monitores de ruta en modo no INC
-
Configuración del conjunto de interfaces de conmutación por error
-
Descripción del cálculo de comprobación de estado de alta disponibilidad
-
Administración de mensajes de latido de alta disponibilidad en un dispositivo Citrix ADC
-
Quitar y reemplazar un dispositivo Citrix ADC en una instalación de alta disponibilidad
-
-
Optimización TCP
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Optimización TCP
TCP utiliza las siguientes técnicas de optimización y estrategias de control de congestión (o algoritmos) para evitar la congestión de red en la transmisión de datos.
Estrategias de control de congestión
El TCP se ha utilizado durante mucho tiempo para establecer y administrar conexiones a Internet, manejar errores de transmisión y conectar sin problemas aplicaciones web con dispositivos cliente. Pero el tráfico de red se ha vuelto más difícil de controlar, porque la pérdida de paquetes no depende solo de la congestión en la red, y la congestión no necesariamente causa la pérdida de paquetes. Por lo tanto, para medir la congestión, un algoritmo TCP debe centrarse tanto en la pérdida de paquetes como en el ancho de banda.
Algoritmo de Recuperación de Tasa Proporcional (PRR)
Los mecanismos de recuperación rápida TCP reducen la latencia web causada por pérdidas de paquetes. El nuevo algoritmo de recuperación proporcional de velocidad (PRR) es un algoritmo de recuperación rápida que evalúa los datos TCP durante una recuperación de pérdidas. Se modela después de Rate-Halving, mediante el uso de la fracción que es apropiada para la ventana de destino elegida por el algoritmo de control de congestión. Minimiza el ajuste de la ventana y el tamaño real de la ventana al final de la recuperación está cerca del umbral de inicio lento (ssthresh).
Apertura rápida TCP (TFO)
TCP Fast Open (TFO) es un mecanismo TCP que permite el intercambio de datos rápido y seguro entre un cliente y un servidor durante el protocolo de enlace inicial de TCP. Esta función está disponible como opción TCP en el perfil TCP enlazado a un servidor virtual de un dispositivo Citrix ADC. TFO utiliza una cookie TCP Fast Open (una cookie de seguridad) que genera el dispositivo Citrix ADC para validar y autenticar al cliente que inicia una conexión TFO al servidor virtual. Mediante este mecanismo TFO, puede reducir la latencia de red de una aplicación en el tiempo necesario para un viaje completo de ida y vuelta, lo que reduce significativamente el retraso experimentado en las transferencias TCP cortas.
Cómo funciona el TFO
Cuando un cliente intenta establecer una conexión TFO, incluye una cookie TCP Fast Open con el segmento SYN inicial para autenticarse. Si la autenticación se realiza correctamente, el servidor virtual del dispositivo Citrix ADC puede incluir datos en el segmento SYN-ACK aunque no haya recibido el segmento ACK final del protocolo de enlace de tres vías. Esto ahorra hasta un viaje completo de ida y vuelta en comparación con una conexión TCP normal, que requiere un protocolo de enlace de tres vías antes de que se puedan intercambiar datos.
Un cliente y un servidor back-end realizan los siguientes pasos para establecer una conexión TFO e intercambiar datos de forma segura durante el enlace TCP inicial.
- Si el cliente no tiene una cookie TCP Fast Open para autenticarse, envía una solicitud Fast Open Cookie en el paquete SYN al servidor virtual del dispositivo Citrix ADC.
- Si la opción TFO está habilitada en el perfil TCP enlazado al servidor virtual, el dispositivo genera una cookie (cifrando la dirección IP del cliente bajo una clave secreta) y responde al cliente con un SYN-ACK que incluye la cookie de apertura rápida generada en un campo de opción TCP.
- El cliente almacena en caché la cookie para futuras conexiones TFO al mismo servidor virtual del dispositivo.
- Cuando el cliente intenta establecer una conexión TFO al mismo servidor virtual, envía SYN que incluye la cookie de apertura rápida en caché (como opción TCP) junto con los datos HTTP.
- El dispositivo Citrix ADC valida la cookie y, si la autenticación es correcta, el servidor acepta los datos del paquete SYN y reconoce el evento con SYN-ACK, Cookie TFO y respuesta HTTP.
Nota:
Si falla la autenticación del cliente, el servidor quita los datos y reconoce el evento solo con un SYN que indica un tiempo de espera de la sesión.
- En el lado del servidor, si la opción TFO está habilitada en un perfil TCP enlazado a un servicio, el dispositivo Citrix ADC determina si la cookie de apertura rápida TCP está presente en el servicio al que está intentando conectarse.
- Si la cookie TCP Fast Open no está presente, el dispositivo envía una solicitud de cookie en el paquete SYN.
- Cuando el servidor back-end envía la cookie, el dispositivo almacena la cookie en la caché de información del servidor.
- Si el dispositivo ya tiene una cookie para el par IP de destino dado, reemplaza la cookie antigua por la nueva.
- Si la cookie está disponible en la caché de información del servidor cuando el servidor virtual intenta volver a conectarse al mismo servidor back-end mediante la misma dirección SNIP, el dispositivo combina los datos del paquete SYN con la cookie y los envía al servidor back-end.
- El servidor back-end reconoce el evento con datos y un SYN.
Nota: Si el servidor reconoce el evento con solo un segmento SYN, el dispositivo Citrix ADC reenvía inmediatamente el paquete de datos después de quitar el segmento SYN y las opciones TCP del paquete original.
Configuración de TCP fast open
Para utilizar la función TCP Fast Open (TFO), habilite la opción TCP Fast Open en el perfil TCP pertinente y establezca el parámetro TFO Cookie Timeout en un valor que se ajuste al requisito de seguridad para ese perfil.
Habilitar o inhabilitar TFO mediante la CLI
En el símbolo del sistema, escriba uno de los siguientes comandos para habilitar o inhabilitar TFO en un perfil nuevo o existente.
Nota: El valor predeterminado es DISABLED.
add tcpprofile <TCP Profile Name> - tcpFastOpen ENABLED | DISABLED
set tcpprofile <TCP Profile Name> - tcpFastOpen ENABLED | DISABLED
unset tcpprofile <TCP Profile Name> - tcpFastOpen
Examples
add tcpprofile Profile1 – tcpFastOpen
Set tcpprofile Profile1 – tcpFastOpen Enabled
unset tcpprofile Profile1 – tcpFastOpen
Para establecer el valor de tiempo de espera de la cookie de apertura rápida TCP mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba:
set tcpparam –tcpfastOpenCookieTimeout <Timeout Value>
Example
set tcpprofile –tcpfastOpenCookieTimeout 30secs
Para configurar el TCP Fast Open mediante la interfaz gráfica de usuario
- Vaya a Configuración > Sistema > Perfiles > y, a continuación, haga clic en Modificar para modificar un perfil TCP.
- En la página Configurar perfil TCP, active la casilla de verificación Abrir rápido de TCP.
- Haga clic en Aceptar y, a continuación, Hecho.
Para configurar el valor de tiempo de espera de TCP Fast Cookie mediante la interfaz gráfica de usuario
Vaya a Configuración > Sistema > Configuración > Cambiar parámetros TCP y, a continuación, Configurar parámetros TCP para establecer el valor de tiempo de espera TCP Fast Open Cookie.
TCP HyStart
Un nuevo parámetro de perfil TCP, HyStart, habilita el algoritmo HyStart, que es un algoritmo de inicio lento que determina dinámicamente un punto seguro en el que terminar (ssthresh). Permite una transición a evitar la congestión sin grandes pérdidas de paquetes. Este nuevo parámetro está inhabilitado de forma predeterminada.
Si se detecta congestión, HyStart entra en una fase de evitación de la congestión. Si lo habilita, obtendrá un mejor rendimiento en redes de alta velocidad con una alta pérdida de paquetes. Este algoritmo ayuda a mantener el ancho de banda cercano al máximo durante el procesamiento de transacciones. Por lo tanto, puede mejorar el rendimiento.
Configuración de TCP HyStart
Para utilizar la función HyStart, habilite la opción Cubic HyStart en el perfil TCP correspondiente.
Para configurar HyStart mediante la interfaz de línea de comandos (CLI)
En el símbolo del sistema, escriba uno de los siguientes comandos para habilitar o inhabilitar HyStart en un perfil TCP nuevo o existente.
add tcpprofile <profileName> -hystart ENABLED
set tcpprofile <profileName> -hystart ENABLED
unset tcprofile <profileName> -hystart
Ejemplos:
add tcpprofile profile1 -hystart ENABLED
set tcpprofile profile1 -hystart ENABLED
unset tcprofile profile1 -hystart
Para configurar la compatibilidad con HyStart mediante la interfaz gráfica de usuario
- Vaya a Configuración > Sistema > Perfiles > y haga clic en Modificar para modificar un perfil TCP.
- En la página Configurar perfil TCP, active la casilla de verificación Hystart cúbico.
- Haga clic en Aceptar y, a continuación, Hecho.
Control de velocidad de ráfaga TCP
Se observa que los mecanismos de control TCP pueden conducir a un flujo de tráfico ráfaga en redes móviles de alta velocidad con un impacto negativo en la eficiencia general de la red. Debido a condiciones de la red móvil, como la congestión o la retransmisión de datos de capa 2, los acuse de recibo de TCP llegan agrupados al remitente y desencadenan una ráfaga de transmisión. Estos grupos de paquetes consecutivos enviados con una brecha corta entre paquetes se llama ráfaga de paquetes TCP. Para superar la ráfaga de tráfico, el dispositivo Citrix ADC utiliza una técnica TCP Burst Rate Control. Esta técnica distribuye de manera uniforme los datos en la red durante todo un tiempo de ida y vuelta para que los datos no se envíen a una ráfaga. Mediante esta técnica de control de velocidad de ráfaga, puede lograr un mejor rendimiento y menores tasas de caída de paquetes.
Cómo funciona el control de velocidad de ráfaga TCP
En un dispositivo Citrix ADC, esta técnica distribuye uniformemente la transmisión de un paquete a lo largo de toda la duración del tiempo de ida y vuelta (RTT). Esto se logra mediante una pila TCP y un programador de paquetes de red que identifica las diversas condiciones de red para generar paquetes para sesiones TCP en curso con el fin de reducir las ráfagas.
En el remitente, en lugar de transmitir paquetes inmediatamente después de recibir un acuse de recibo, el remitente puede retrasar la transmisión de paquetes para distribuirlos a la velocidad definida por el programador (Configuración dinámica) o por el perfil TCP (Configuración fija).
Configuración del control de velocidad de ráfaga TCP
Para utilizar la opción Control de velocidad de ráfaga TCP en el perfil TCP correspondiente y establecer los parámetros de control de velocidad de ráfaga.
Para establecer el control de velocidad de ráfaga TCP mediante la línea de comandos
En el símbolo del sistema, establezca uno de los siguientes comandos TCP Burst Rate Control se configuran en un perfil nuevo o existente.
Nota: El valor predeterminado es DESHABILITADO.
add tcpprofile <TCP Profile Name> -burstRateControl Disabled | Dynamic | Fixed
set tcpprofile <TCP Profile Name> -burstRateControl Disabled | Dynamic | Fixed
unset tcpprofile <TCP Profile Name> -burstRateControl Disabled | Dynamic | Fixed
Donde:
Desactivado: Si el control Burst rate está inhabilitado, un dispositivo Citrix ADC no realiza la administración de ráfagas excepto la configuración MaxBurst.
Corregido: Si el control de velocidad de ráfaga de TCP era Fijo, el dispositivo utiliza el valor de velocidad de envío de carga de conexión TCP mencionado en el perfil TCP.
Dinámico: Si el control de velocidad de ráfaga es “dinámico”, la conexión se está regulando en función de varias condiciones de red para reducir las ráfagas TCP. Este modo solo funciona cuando la conexión TCP está en modo ENDPOINT. Cuando el control Velocidad de ráfaga dinámica está habilitado, el parámetro MaxBurst del perfil TCP no está en vigor.
add tcpProfile profile1 -burstRateControl Disabled
set tcpProfile profile1 -burstRateControl Dynamic
unset tcpProfile profile1 -burstRateControl Fixed
Para establecer los parámetros de control de velocidad de ráfaga TCP mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba:
set ns tcpprofile nstcp_default_profile –burstRateControl <type of burst rate control> –tcprate <TCP rate> -rateqmax <maximum bytes in queue>
T1300-10-2> show ns tcpprofile nstcp_default_profile
Name: nstcp_default_profile
Window Scaling status: ENABLED
Window Scaling factor: 8
SACK status: ENABLED
MSS: 1460
MaxBurst setting: 30 MSS
Initial cwnd setting: 16 MSS
TCP Delayed-ACK Timer: 100 millisec
Nagle's Algorithm: DISABLED
Maximum out-of-order packets to queue: 15000
Immediate ACK on PUSH packet: ENABLED
Maximum packets per MSS: 0
Maximum packets per retransmission: 1
TCP minimum RTO in millisec: 1000
TCP Slow start increment: 1
TCP Buffer Size: 8000000 bytes
TCP Send Buffer Size: 8000000 bytes
TCP Syncookie: ENABLED
Update Last activity on KA Probes: ENABLED
TCP flavor: BIC
TCP Dynamic Receive Buffering: DISABLED
Keep-alive probes: ENABLED
Connection idle time before starting keep-alive probes: 900 seconds
Keep-alive probe interval: 75 seconds
Maximum keep-alive probes to be missed before dropping connection: 3
Establishing Client Connection: AUTOMATIC
TCP Segmentation Offload: AUTOMATIC
TCP Timestamp Option: DISABLED
RST window attenuation (spoof protection): ENABLED
Accept RST with last acknowledged sequence number: ENABLED
SYN spoof protection: ENABLED
TCP Explicit Congestion Notification: DISABLED
Multipath TCP: DISABLED
Multipath TCP drop data on pre-established subflow: DISABLED
Multipath TCP fastopen: DISABLED
Multipath TCP session timeout: 0 seconds
DSACK: ENABLED
ACK Aggregation: DISABLED
FRTO: ENABLED
TCP Max CWND : 4000000 bytes
FACK: ENABLED
TCP Optimization mode: ENDPOINT
TCP Fastopen: DISABLED
HYSTART: DISABLED
TCP dupack threshold: 3
Burst Rate Control: Dynamic
TCP Rate: 0
TCP Rate Maximum Queue: 0
Para configurar el control de velocidad de ráfaga TCP mediante la interfaz gráfica de usuario
- Vaya a Configuración > Sistema > Perfiles > y, a continuación, haga clic en Modificar para modificar un perfil TCP.
- En la página Configurar perfil TCP, seleccione la opción Control de ráfagas TCP en la lista desplegable:
- Burstratecntrl
- Créditopor Teprms
- Tarifas por Teperms
- Tarifas de ChedulerQ
- Haga clic en Aceptar y, a continuación, Hecho.
Protección contra el algoritmo de secuencia envuelta (PAWS)
Si habilita la opción de marca de hora TCP en el perfil TCP predeterminado, el dispositivo Citrix ADC utiliza el algoritmo Protección contra Secuencia Envuelta (PAWS) para identificar y rechazar paquetes antiguos cuyos números de secuencia se encuentran dentro de la ventana de recepción de la conexión TCP actual porque la secuencia ha “envuelta” ( alcanzó su valor máximo y se reinició desde 0).
Si la congestión de la red retrasa un paquete de datos no SYN y abre una nueva conexión antes de que llegue el paquete, el ajuste de número de secuencia podría provocar que la nueva conexión acepte el paquete como válido, lo que provocará daños en los datos. Pero si la opción de marca de tiempo TCP está habilitada, el paquete se descarta.
De forma predeterminada, la opción de marca de tiempo TCP está inhabilitada. Si lo habilita, el dispositivo compara la marca de tiempo TCP (seg.tsval) en el encabezado de un paquete con el valor de marca de tiempo reciente (ts.Recent). Si seg.tsval es igual o mayor que ts.Recent, el paquete se procesa. De lo contrario, el dispositivo elimina el paquete y envía un acuse de recibo correctivo.
Cómo funciona el PAWS
El algoritmo PAWS procesa todos los paquetes TCP entrantes de una conexión sincronizada de la siguiente manera:
- Si
SEG.TSval
<Ts.recent:
El paquete entrante no es aceptable. PAWS envía un acuse de recibo (como se especifica en RFC-793) y elimina el paquete. Nota: El envío de un segmento ACK es necesario para retener los mecanismos de TCP para detectar y recuperar de conexiones semiabiertas. - Si el paquete está fuera de la ventana: PAWS rechaza el paquete, como en el procesamiento TCP normal.
- Si
SEG.TSval
>Ts.recent: PAWS
acepta el paquete y lo procesa. - Si
SEG.TSval
<=Last.ACK.sent
(segmento que llega satisface): PAWS debe copiarSEG.TSval
el valor enTs.recent
(se copia en Ts. Campo reciente en el db?. - Si el paquete está en secuencia: PAWS acepta el paquete.
- Si el paquete no está en secuencia: El paquete se trata como un segmento TCP normal dentro de ventana y fuera de secuencia. Por ejemplo, podría estar en cola para una entrega posterior.
- Si el
Ts.recent
valor está inactivo durante más de 24 días: la validez deTs.recent
se comprueba si falla la comprobación de marca de tiempo de PAWS. Si se encuentra que el valor TS.Recent no es válido, se acepta el segmento yPAWS rule
actualiza elTs.recent
con el valor TSVal del nuevo segmento.
Para habilitar o inhabilitar la marca de tiempo TCP mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba:
`set nstcpprofile nstcp_default_profile -TimeStamp (ENABLED | DISABLED)`
Para habilitar o inhabilitar la marca de tiempo TCP mediante la interfaz gráfica de usuario
Desplácese hasta Sistema > Perfil > Perfil TCP, seleccione el perfil TCP predeterminado, haga clic en Modificar y active o desactive la casilla de verificación Marca de tiempo TCP.
Técnicas de optimización
TCP utiliza las siguientes técnicas y métodos de optimización para controles de flujo optimizados.
Selección de perfil TCP basada en directivas
Hoy en día, el tráfico de red es más diverso y requiere mucho ancho de banda que nunca. Con el aumento del tráfico, el efecto que la calidad de servicio (QoS) tiene en el rendimiento TCP es significativo. Para mejorar la calidad de servicio, ahora puede configurar directivas de AppQoE con diferentes perfiles TCP para diferentes clases de tráfico de red. La directiva AppQoE clasifica el tráfico de un servidor virtual para asociar un perfil TCP optimizado para un tipo concreto de tráfico, como 3G, 4G, LAN o WAN.
Para utilizar esta función, cree una acción de directiva para cada perfil TCP, asocie una acción con directivas AppQoE y vincule las directivas a los servidores virtuales de equilibrio de carga.
Para obtener información sobre el uso de atributos de suscriptor para realizar la optimización TCP, consulte Perfil TCP basado en directivas.
Configuración de la selección de perfiles TCP basada en directivas
La configuración de la selección de perfiles TCP basada en directivas consta de las siguientes tareas:
- Activando AppQoE. Antes de configurar la función de perfil TCP, debe habilitar la función AppQoE.
- Agregar acción AppQoE. Después de habilitar la función AppQoE, configure una acción AppQoE con un perfil TCP.
- Configuración de la selección de perfiles TCP basada en AppQoE. Para implementar la selección de perfiles TCP para diferentes clases de tráfico, debe configurar directivas de AppQoE con las que Citrix ADC pueda distinguir las conexiones y vincular la acción de AppQoE correcta a cada directiva.
- Vinculación de la directiva AppQoE con el servidor virtual. Una vez que haya configurado las directivas de AppQoE, debe vincularlas a uno o más servidores virtuales de equilibrio de carga, conmutación de contenido o redirección de caché.
Configurar mediante la interfaz de línea de comandos
Para habilitar AppQoE mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba los siguientes comandos para habilitar la función y compruebe que está habilitada:
enable ns feature appqoe
show ns feature
Para enlazar un perfil TCP al crear una acción AppQoE mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba el siguiente comando de acción AppQoE con la tcpprofiletobind
opción.
add appqoe action <name> [-priority <priority>] [-respondWith ( ACS | NS ) [<CustomFile>] [-altContentSvcName <string>] [-altContentPath <string>] [-maxConn <positive_integer>] [-delay <usecs>]] [-polqDepth <positive_integer>] [-priqDepth <positive_integer>] [-dosTrigExpression <expression>] [-dosAction ( SimpleResponse |HICResponse )] [-tcpprofiletobind <string>]
show appqoe action
Para configurar una directiva AppQoE mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba:
add appqoe policy <name> -rule <expression> -action <string>
Para vincular una directiva de AppQoE al equilibrio de carga, la redirección de caché o la conmutación de contenido de servidores virtuales mediante la interfaz de línea de comandos
En el símbolo del sistema, escriba:
bind cs vserver cs1 -policyName <appqoe_policy_name> -priority <priority>
bind lb vserver <name> - policyName <appqoe_policy_name> -priority <priority>
bind cr vserver <name> -policyName <appqoe_policy_name> -priority <priority>
Ejemplo
add ns tcpProfile tcp1 -WS ENABLED -SACK ENABLED -WSVal 8 -nagle ENABLED -maxBurst 30 -initialCwnd 16 -oooQSize 15000 -minRTO 500 -slowStartIncr 1 -bufferSize 4194304 -flavor BIC -KA ENABLED -sendBuffsize 4194304 -rstWindowAttenuate ENABLED -spoofSynDrop ENABLED -dsack enabled -frto ENABLED -maxcwnd 4000000 -fack ENABLED -tcpmode ENDPOINT
add appqoe action appact1 -priority HIGH -tcpprofile tcp1
add appqoe policy apppol1 -rule "client.ip.src.eq(10.102.71.31)" -action appact1
bind lb vserver lb2 -policyName apppol1 -priority 1 -gotoPriorityExpression END -type REQUEST
bind cs vserver cs1 -policyName apppol1 -priority 1 -gotoPriorityExpression END -type REQUEST
Configuración de perfiles TCP basados en directivas mediante la interfaz gráfica de usuario
Para habilitar AppQoE mediante la interfaz gráfica de usuario
- Vaya a Sistema > Configuración.
- En el panel de detalles, haga clic en Configurar funciones avanzadas.
- En el cuadro de diálogo Configurar funciones avanzadas, active la casilla de verificación AppQoE.
- Haga clic en Aceptar.
Para configurar la directiva AppQoE mediante la interfaz gráfica de usuario
- Vaya a App-Expert > AppQoE > Acciones.
- En el panel de detalles, realice una de las acciones siguientes:
- Para crear una nueva acción, haga clic en Agregar.
- Para modificar una acción existente, selecciónela y, a continuación, haga clic en Modificar.
- En la pantalla Crear acción AppQoE o Configurar acción AppQoE, escriba o seleccione valores para los parámetros. El contenido del cuadro de diálogo corresponde a los parámetros descritos en “Parámetros para configurar la acción AppQoE” de la siguiente manera (asterisco indica un parámetro obligatorio):
- Nombre: Name
- Tipo de acción: RespondWith
- Prioridad: Priority
- Profundidad de cola de directivas: PolqDepth
- Profundidad de la cola: PriqDepth
- Acción de DOS: DosAction
- Haga clic en Crear.
Para enlazar la directiva de AppQoE mediante la interfaz gráfica de usuario
- Vaya a Administración del tráfico > Equilibrio de carga > Servidores virtuales, seleccione un servidor y, a continuación, haga clic en Modificar.
- En la sección Directivas y haga clic en (+) para enlazar una directiva de AppQoE.
- En el control deslizante Directivas, haga lo siguiente:
- Seleccione un tipo de directiva como AppQoE en la lista desplegable.
- Seleccione un tipo de tráfico en la lista desplegable.
- En la sección Enlace de directivas, haga lo siguiente:
- Haga clic en Nuevo para crear una nueva directiva de AppQoE.
- Haga clic en Directiva existente para seleccionar una directiva de AppQoE en la lista desplegable.
- Establezca la prioridad de enlace y haga clic en Vincular a la directiva al servidor virtual.
- Haga clic en Listo.
Generación de bloques SACK
El rendimiento TCP se ralentiza cuando se pierden varios paquetes en una ventana de datos. En tal caso, un mecanismo de reconocimiento selectivo (SACK) combinado con una directiva de retransmisión selectiva de repeticiones supera esta limitación. Para cada paquete entrante fuera de pedido, debe generar un bloque SACK.
Si el paquete fuera de pedido encaja en el bloque de cola de reensamblaje, inserte la información del paquete en el bloque y establezca la información del bloque completa como SACK-0. Si un paquete fuera de orden no cabe en el bloque de reensamblaje, envíelo como SACK-0 y repita los bloques SACK anteriores. Si un paquete fuera de orden es un duplicado y la información del paquete se establece como SACK-0, entonces D-SACK el bloque.
Nota: Un paquete se considera como D-SACK si es un paquete reconocido, o un paquete fuera de servicio que ya se ha recibido.
Renegamiento del cliente
Un dispositivo Citrix ADC puede manejar el renegamiento del cliente durante la recuperación basada en SACK.
Las comprobaciones de memoria para marcar end_point en la PCB no están considerando el total de la memoria disponible
En un dispositivo Citrix ADC, si el umbral de uso de memoria se establece en el 75% en lugar de utilizar la memoria total disponible, las nuevas conexiones TCP evitan la optimización TCP.
Retransmisiones innecesarias debido a la falta de bloques SACK
En un modo que no sea endpoint, cuando envía DUPACKS, si faltan bloques SACK para algunos paquetes fuera de orden, desencadena más retransmisiones desde el servidor.
SNMP para la optimización de conexiones omitidas debido a sobrecarga
Se han agregado los siguientes identificadores SNMP a un dispositivo Citrix ADC para realizar un seguimiento del número de conexiones omitidas optimizaciones TCP debido a una sobrecarga.
- 1.3.6.1.4.1.5951.4.1.1.46.131 (TCPOptimizationEnabled). Para realizar un seguimiento del número total de conexiones habilitadas con la optimización TCP.
- 1.3.6.1.4.1.5951.4.1.1.46.132 (tcpOptimizationBypassed). Para realizar un seguimiento del número total de conexiones que se omite TCP Optimization.
Buffer de recepción dinámica
Para maximizar el rendimiento TCP, un dispositivo Citrix ADC ahora puede ajustar dinámicamente el tamaño del búfer de recepción TCP.
Algoritmo de sonda de pérdida de cola
Un tiempo de espera de retransmisión (RTO) es una pérdida de segmentos en el extremo final de una transacción. Se produce un RTO si hay problemas de latencia de aplicaciones, especialmente en transacciones web cortas. Para recuperar la pérdida de segmentos al final de una transacción, TCP utiliza el algoritmo Tail Loss Probe (TLP). TLP es un algoritmo de solo remitente. Si una conexión TCP no recibe ningún acuse de recibo durante un período determinado, TLP transmite el último paquete no reconocido (sonda de pérdida). En el caso de una pérdida de cola en la transmisión original, el reconocimiento de la sonda de pérdida desencadena una recuperación SACK o FACK.
Configuración de la sonda de pérdida de cola
Para utilizar el algoritmo Tail Loss Probe (TLP), debe habilitar la opción TLP en el perfil TCP y establecer el parámetro en un valor que se ajuste al requisito de seguridad para ese perfil.
Habilitar TLP mediante la línea de comandos
En el símbolo del sistema, escriba uno de los siguientes comandos para habilitar o inhabilitar TLP en un perfil nuevo o existente.
Nota:
El valor predeterminado es DISABLED.
add tcpprofile <TCP Profile Name> - taillossprobe ENABLED | DISABLED
set tcpprofile <TCP Profile Name> - taillossprobe ENABLED | DISABLED
unset tcpprofile <TCP Profile Name> - taillossprobe
Ejemplos:
add tcpprofile nstcp_default_profile – taillossprobe
set tcpprofile nstcp_default_profile –taillossprobe Enabled
unset tcpprofile nstcp_default_profile –taillossprobe
Configurar el algoritmo de sonda de pérdida de cola mediante la GUI de Citrix ADC
- Vaya a Configuración > Sistema > Perfiles > y, a continuación, haga clic en Modificar para modificar un perfil TCP.
- En la página Configurar perfil TCP, active la casilla de verificación Sonda de pérdida de cola.
- Haga clic en Aceptar y, a continuación, Hecho.
Compartir
Compartir
En este artículo
- Estrategias de control de congestión
- Algoritmo de Recuperación de Tasa Proporcional (PRR)
- Apertura rápida TCP (TFO)
- TCP HyStart
- Control de velocidad de ráfaga TCP
- Protección contra el algoritmo de secuencia envuelta (PAWS)
- Para habilitar o inhabilitar la marca de tiempo TCP mediante la interfaz de línea de comandos
- Técnicas de optimización
- Selección de perfil TCP basada en directivas
- Para habilitar AppQoE mediante la interfaz de línea de comandos
- Generación de bloques SACK
- Renegamiento del cliente
- Las comprobaciones de memoria para marcar end_point en la PCB no están considerando el total de la memoria disponible
- Retransmisiones innecesarias debido a la falta de bloques SACK
- SNMP para la optimización de conexiones omitidas debido a sobrecarga
- Buffer de recepción dinámica
- Algoritmo de sonda de pérdida de cola
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.