Capa de hardware de la metodología de diseño

En esta sección, se describe cómo ajustar el tamaño del hardware para los servidores de la infraestructura virtual, los escritorios virtuales y los hosts de aplicaciones virtuales. El tamaño de estos servidores suele ajustarse de dos maneras.

  • La primera, la preferida, es planificar con anticipación y comprar hardware en función de los requisitos de la carga de trabajo.
  • La segunda manera es utilizar el hardware existente en la mejor configuración para cumplir los diferentes requisitos de carga de trabajo.

En esta sección, se describirán las decisiones relacionadas con ambas maneras.

Decisión: Separación de la carga de trabajo

Al implementar XenApp y XenDesktop, las cargas de trabajo de la infraestructura, XenDesktop y XenApp pueden separarse en clústeres de recursos dedicados o mezclarse en los mismos hosts físicos. Citrix recomienda utilizar clústeres de recursos para separar las cargas de trabajo, sobre todo en una implementación de empresa. Eso permite ajustar mejor el tamaño del host, ya que cada carga de trabajo presenta requisitos únicos, como ratios de sobreasignación y uso de memoria.

En entornos más pequeños en los que los clústeres de recursos tienen costes prohibitivos, las cargas de trabajo pueden mezclarse de manera que permita un entorno de alta disponibilidad. Citrix suele separar las cargas de trabajo, aunque las cargas de trabajo mixtas son una decisión empresarial basada en costes.

Decisión: Procesador físico (pCPU)

En la tabla siguiente se ofrece una guía de la cantidad de escritorios virtuales que se pueden admitir para cargas de trabajo bajas, medianas y altas por núcleo físico. Cada escritorio se correlaciona con un único usuario simultáneo, con la suposición de que el sistema operativo se ha optimizado.

Carga de trabajo del usuario

  • Baja
Sistema operativo Usuarios por núcleo físico
Windows 7 13
Windows 8 12
Windows 10 12
Windows 2008 R2 18
Windows 2012 R2 21
Windows 2016 21
  • Media
Sistema operativo Usuarios por núcleo físico
Windows 7 10
Windows 8 9
Windows 10 9
Windows 2008 R2 12
Windows 2012 R2 14
Windows 2016 14
  • Alta
Sistema operativo Usuarios por núcleo físico
Windows 7 5
Windows 8 4
Windows 10 4
Windows 2008 R2 6
Windows 2012 R2 7
Windows 2016 7

La estimación de “Usuarios por núcleo físico” es un número de referencia de usuarios que ejecutan Microsoft Office 2010. El número de referencia debe ajustarse en función de las necesidades específicas de la infraestructura. Como directriz general, las siguientes características provocan un cambio en la referencia de la densidad del servidor.

Característica Impacto en la densidad del servidor
Antivirus (no optimizado) Disminución del 25%
Supervisión en tiempo real Disminución del 15%
Office 2013 Disminución del 20%
Office 2016 Disminución del 25%
Hyper-threading Aumento del 20%

Para calcular la cantidad total de núcleos físicos necesarios para la carga de trabajo de XenApp y XenDesktop, utilice la siguiente fórmula para cada grupo de usuarios:

Imagen de la fórmula de la carga de trabajo

∑ representa la suma de todas las combinaciones de grupos de usuarios “i”.

Usersi = Cantidad de usuarios simultáneos por grupos de usuarios

UsersPerCorei = Cantidad de usuarios por núcleo físico

AV = Impacto del antivirus (predeterminado = 0,25)

Mon = Impacto de las herramientas de supervisión (predeterminado = 0,15)

Off13 = Impacto de Office 2013 (predeterminado = 0,2)

Off16 = Impacto de Office 2016 (predeterminado = 0,25)

HT = Impacto de Hyper-Threading (predeterminado = 0,2)

Si se separan las cargas de trabajo (cargas de trabajo de XenApp y XenDesktop), la fórmula debe calcularse dos veces, una para todos los usuarios de XenDesktop y la segunda para todos los usuarios de XenApp por orden

Decisión: Memoria física (pRAM)

El método recomendado para ajustar el tamaño de la memoria de un host físico es decidir el tamaño en función de la memoria total necesaria para admitir las máquinas virtuales y la capacidad de la CPU del host. Para calcular la memoria total necesaria para XenApp y XenDesktop, basta con multiplicar la cantidad de máquinas virtuales por la cantidad de memoria asignada a las máquinas virtuales. La suma de todos los catálogos de máquinas será la RAM total necesaria para los hosts de XenApp y XenDesktop. Se muestra en la siguiente fórmula.

Imagen de la fórmula de la carga de trabajo

∑ representa la suma de todas las combinaciones de grupos de usuarios “i”.

VMi = Cantidad de usuarios simultáneos por grupos de usuarios

vRAMi = Cantidad de RAM asignada a cada máquina virtual

Si las cargas de trabajo se separan en hosts diferentes (cargas de trabajo de XenApp y XenDesktop), la fórmula debe calcularse dos veces, una para todos los usuarios de XenDesktop y la segunda para todos los usuarios de XenApp.

Decisión: Host físico (pHost)

En la mayoría de las situaciones, la cantidad de hosts físicos que admitan las cargas de trabajo de XenApp y XenDesktop estará limitada por la cantidad de núcleos de procesador disponibles. En la siguiente fórmula se ofrece una estimación de la cantidad de hosts necesarios para las cargas de trabajo del usuario. La fórmula se basa en la recomendación de separar las cargas de trabajo de XenApp y XenDesktop debido a las diferentes ratios recomendadas de sobreasignación de CPU para cada una.

XenDesktop pHosts = (Total de unidades CPU físicas de XenDesktop / Núcleos por host físico +1)

XenApp pHosts = (Total de unidades CPU físicas de XenApp / Núcleos por host físico +1)

Una vez que se ha determinado la cantidad de hosts físicos en función de los núcleos del procesador, se calcula la cantidad de RAM necesaria para cada host.

XenDesktop pRAM per pHost = HypervisorRAM + (Total de RAM física de XenDesktop / Hosts físicos de XenDesktop -1)

XenAPP pRAM per pHost = HypervisorRAM + (Total de RAM física de XenApp / Hosts físicos de XenApp -1)

Decisión: GPU

Los hosts utilizados para entregar cargas de trabajo gráficas requieren procesadores gráficos para ofrecer una experiencia de usuario sofisticada. Se requieren tarjetas gráficas y hosts de hardware específicos para admitir gráficos sofisticados que utilizan HDX 3D Pro. Dispone de una lista actualizada del hardware probado en un artículo de Knowledge Base. El tamaño de los hosts de escritorio y aplicaciones de los usuarios de gráficos sofisticados debe basarse en los requisitos de GPU, lo que garantiza que el host disponga de recursos de CPU y memoria adecuados para la carga de trabajo.

Las tarjetas NVIDIA GRID se pueden utilizar con perfiles vGPU para admitir a varios usuarios. En la siguiente tabla, dispone de las pautas de tamaño que indica NVIDIA.

En la tabla, Y indica que los certificados de aplicación están disponibles.

Tarjeta gráfica NVIDIA GRID Perfil de GPU virtual Certificaciones de aplicaciones Memoria de gráficos Máximo de pantallas por usuario Resolución máxima por pantalla Máximo de GPU virtuales por tarjeta gráfica Caso de uso
GRID K2 K280Q Y 4096 MB 4 2560 x 1600 2 Diseñador
  K260Q Y 2048 MB 4 2560 x 1600 4 Diseñador/usuario avanzado
  K240Q Y 1024 MB 2 2560 x 1600 8 Diseñador/usuario avanzado
  K220Q Y 512 MB 2 2560 x 1600 16 Trabajador intelectual
  K200   256 MB 2 1900 x 1200 16 Usuario avanzado
GRID K1 K180Q Y 4096 MB 4 2560 x 1600 4 Usuario avanzado
  K160Q Y 2048 MB 4 2560 x 1600 8 Usuario avanzado
  K140Q Y 1024 MB 2 2560 x 1600 16 Usuario avanzado
  K120Q Y 512 MB 2 2560 x 1600 32 Usuario avanzado
  K100   256 MB 2 1900 x 1200 32 Trabajador intelectual

Tamaño del almacenamiento

Decisión: Arquitectura del almacenamiento

Las principales arquitecturas de almacenamiento son las siguientes:

  • Almacenamiento local: Se utilizan discos duros conectados directamente al sistema del equipo. Los discos no se pueden compartir con los sistemas de otros equipos, pero, si el equipo aloja escritorios compartidos o agrupados, no es necesaria una solución de almacenamiento compartido. En muchos casos, el almacenamiento local puede funcionar tan bien como el almacenamiento compartido. La escalabilidad está limitada a la cantidad de conectores de unidad que haya disponibles en el sistema informático. Muchos servidores blade, por ejemplo, tienen solo dos conectores de unidad, por lo que usar el almacenamiento local para una implementación de XenDesktop puede no ser la mejor solución.
  • Almacenamiento de conexión directa (DAS): Subsistema de almacenamiento conectado directamente a un servidor o estación de trabajo mediante un cable. Emplea almacenamiento a nivel de bloque y puede ser un disco duro local conectado al sistema informático o un estante de discos con varios discos conectados por cableado externo. A diferencia de los discos locales, los estantes de discos requieren una administración independiente. Los estantes de almacenamiento se pueden conectar a varios servidores para que los datos o los discos se puedan compartir.
  • Almacenamiento conectado a la red (NAS): Proporciona almacenamiento a nivel de archivo a sistemas informáticos a través de recursos compartidos de archivos de red. El almacenamiento NAS funciona como un servidor de archivos, y los sistemas de NAS son dispositivos en red que contienen uno o más discos duros, a menudo dispuestos en matrices RAID o contenedores de almacenamiento redundantes lógicos. El acceso suele ofrecerse mediante protocolos Ethernet estándar y de uso compartido de archivos de red, como NFS, SMB/CIFS o AFP.

Nota

NAS puede convertirse en un punto de fallo único. Si el recurso compartido de red deja de estar disponible, todos los dispositivos de destino transmitidos desde el disco tampoco lo estarán.

  • Red de área de almacenamiento (SAN): Red de almacenamiento dedicada que ofrece acceso al almacenamiento consolidado a nivel de bloque. Las redes SAN permiten a los equipos conectarse a diferentes dispositivos de almacenamiento, por lo que los servidores no tienen la propiedad del subsistema de almacenamiento, lo que permite compartir los datos en varios equipos. Normalmente, una red SAN tendrá su propia red dedicada de dispositivos de almacenamiento a los que generalmente no se puede acceder a través de la red por los medios comunes. Para conectar un dispositivo a la red SAN, se necesita un adaptador especializado: el adaptador de bus de host o HBA. Las redes SAN son altamente escalables, sin cambios notables en el rendimiento conforme se conecten más dispositivos y almacenamiento. Las redes SAN pueden ser una inversión costosa tanto en términos de capital como de tiempo necesario para dominar, implementar y administrar la tecnología.
  • Híbrido: Una puerta de enlace NAS se refiere a un servidor NAS sin almacenamiento integrado, sino conectado a una red SAN. En la práctica, hace de traductor entre los protocolos NAS a nivel de archivo (NFS, CIFS, etc.) y los protocolos SAN a nivel de bloque (canal de fibra e iSCSI). Por lo tanto, puede combinar las ventajas de ambas tecnologías y permite que los equipos sin adaptadores de bus de host o HBA se conecten al almacenamiento centralizado.

En la siguiente tabla se resumen las opciones de almacenamiento disponibles y se clasifican según lo idóneas que sean para las implementaciones de XenDesktop.

Propiedades de almacenamiento Local DAS NAS SAN
Coste de implementación Bajo Medio Medio Alto
Administración Baja Media Media Alta
Rendimiento Alto Medio/alto Medio/alto Alto
Redundancia Baja/media Media/alta Media/alta Alta
Escalabilidad Baja Media/alta Media/alta Alta
Caso de uso corriente Entornos de prueba y producción pequeños y medianos Entornos de producción pequeños y medianos Entornos de producción pequeños y medianos Entornos de producción medianos y grandes

Nota

Hyper-V 2008 R2 no admite la tecnología NAS. Hyper-V 2012/2012 R2 solo admite soluciones NAS que admitan el protocolo SMB 3.0. Para obtener más información, consulte las secciones de Hyper-V 2008 R2 y Hyper-V 2012 R2 del manual.

El almacenamiento local es el más adecuado para almacenar máquinas virtuales que no tengan requisitos de alta disponibilidad o datos persistentes adjuntos, como escritorios aleatorios (agrupados) o escritorios compartidos alojados. El almacenamiento local y DAS son adecuados para almacenar datos de usuario y archivos de directorio principal. Si utiliza Machine Creation Services, las imágenes maestras y las actualizaciones deben replicarse en cada servidor.

Los almacenamientos NAS y SAN son los más adecuados para servidores de infraestructura que contienen el entorno de XenDesktop y para máquinas virtuales con datos persistentes, como escritorios estáticos (dedicados).

Decisión: Nivel de RAID

Para elegir el mejor nivel de RAID posible, hay que tener en cuenta la relación entre IOPS y la lectura/escritura generada por una aplicación o una carga de trabajo determinadas, junto con las prestaciones individuales de un nivel de RAID. Para cargas de trabajo de alojamiento que consumen muchos recursos de lectura, como el almacén de discos virtuales de Provisioning Services, los niveles de RAID optimizados para operaciones de lectura como RAID 1, 5, 6 o 10 son ideales. Esto se debe a que estos niveles de RAID permiten que las operaciones de lectura se distribuyan por todos los discos del conjunto RAID simultáneamente.

Para cargas de trabajo de alojamiento que consumen muchos recursos de escritura, como la memoria caché de escritura de Provisioning Services y los discos de diferenciación de Machine Creation Services, niveles de RAID como RAID 1 o 10 son ideales, ya que están optimizados para la escritura y cuentan con una penalización baja de escritura.

En la siguiente tabla se describen los atributos cuantitativos esenciales de los niveles de RAID más utilizados:

RAID Capacidad (%) Tolerancia de fallos Rendimiento de lectura Rendimiento de escritura Cantidad mínima de discos
0 100 Ninguna Muy alto Alto (penalización de escritura 1) 2
1 50 Fallo de una sola unidad Muy alto Medio (penalización de escritura 2) 2
5 67 - 94 Fallo de una sola unidad Alto Bajo (penalización de escritura 4) 3
6 50 - 88 Fallo de unidad dual Alto Bajo (penalización de escritura 6) 4
10 50 Fallo de una sola unidad en cada submatriz de discos Muy alto Medio (penalización de escritura 2) 4

Nota

La penalización de escritura es inherente a las técnicas de protección de datos RAID, que requieren múltiples solicitudes de E/S de disco para cada solicitud de escritura de la aplicación, y oscila entre mínimas (matrices reflejadas) y sustanciales (niveles 5 y 6 de RAID).

Decisión: Cantidad de discos

Para determinar la cantidad necesaria de discos, es importante comprender las características de rendimiento de cada disco, las características del nivel de RAID y los requisitos de rendimiento de la carga de trabajo existente. A continuación, dispone del cálculo básico para determinar la cantidad total de discos necesarios:

Cantidad total de discos = Cantidad total de IOPS de lectura + (Total de IOPS de escritura x Penalización de RAID) / IOPS de velocidad de disco

Por ejemplo, un fabricante de discos informa de que una matriz determinada de discos que ha desarrollado tiene un total de 2000 IOPS de carga de trabajo. Las IOPS sin procesar por disco son 175. Para determinar cuántos discos se necesitan para una carga de trabajo con 20% de operaciones de lectura y 80% de escritura en RAID 10:

Cantidad total de discos = ((20% x 2000) + (80% x 2000) x 2) / 175 = 20,57 o 21 discos

Basándose en el ejemplo anterior, en la tabla siguiente se muestra cómo variará el recuento de discos según el nivel de RAID y la relación de lectura/escritura.

RAID IOPS sin procesar (por disco) IOPS de carga de trabajo % de lectura % de escritura Recuento de discos
0 175 2000 20 80 12
  175 2000 80 20 12
1 / 10 175 2000 20 80 21
  175 2000 80 20 14
5 175 2000 20 80 39
  175 2000 80 20 19

Decisión: Tipo de disco

Las unidades de disco duro (HDD) son la variación tradicional a las unidades de disco. Este tipo de discos se componen de bandejas giratorias en un cilindro con motor protegidos por una caja. Los cabezales de lectura/escritura escriben magnéticamente los datos en el plato y los leen desde él.

Existen varias implementaciones de esta tecnología en el mercado, que difieren en cuanto a rendimiento, coste y fiabilidad.

  • El disco ATA de serie (SATA) transmite datos en serie a través de dos pares de conductores. Un par es para la transmisión diferencial de datos, y el otro par es para la recepción diferencial de datos. Las unidades SATA están muy extendidas en equipos de escritorio y portátiles personales. Las unidades SATA suelen tener velocidades de transferencia que oscilan entre 1500 y 6000 Mbps y están diseñados para el intercambio en caliente.
  • Los discos Small Computer Systems Interface (SCSI) utilizan una interfaz de punto a punto con búfer que utiliza señales de enlace entre dispositivos. Muchos dispositivos SCSI requieren un iniciador SCSI para iniciar transacciones SCSI entre el host y el dispositivo SCSI de destino. Suele haber discos SCSI en servidores y estaciones de trabajo; presentan procesamientos que oscilan entre 40 y 5120 Mbps. iSCSI (Internet Small Computer System Interface) es una asignación del protocolo SCSI habitual por TCP/IP, sobre todo por Gigabit Ethernet.
  • El disco Fibre Channel (FC) es el sucesor del disco SCSI paralelo y suele utilizarse en dispositivos de almacenamiento SAN. Las señales Fibre Channel pueden ejecutarse a través de una interfaz eléctrica o cables de fibra óptica. El procesamiento puede variar de 1 a 20 Gbps, y las conexiones son en caliente.
  • El disco SCSI conectado en serie (SAS) utiliza un protocolo de comunicación en serie de nueva generación para obtener transferencias de datos a mayor velocidad que los discos SATA. El procesamiento puede oscilar entre 2400 y 9600 Mbps.

A diferencia de los discos duros tradicionales, los discos de estado sólido (SSD) utilizan microchips para conservar los datos en chips de memoria no volátiles (flash) NAND o DRAM y no contienen partes móviles. Los discos SSD son menos frágiles frente a los golpes físicos, tienen tiempos de acceso y latencia más bajos y tasas de E/S más altas. Los SSD tienen un rendimiento de lectura aleatoria significativamente mayor. Una unidad SSD puede alcanzar entre 5000 y 20 000 lecturas aleatorias por segundo. Los SSD también son más caros por gigabyte (GB) y suelen admitir una cantidad limitada de escrituras a lo largo de la vida útil del disco.

Los SSD basados en la memoria flash pueden basarse en celdas multinivel (MLC) o celdas de un solo nivel (SLC). Los dispositivos SLC solo almacenan un bit de información en cada celda. Los dispositivos MLC pueden almacenar varios bits de información en cada celda. Los SSD de flash cuestan menos que los SSD de DRAM, pero funcionan más lentamente. Los dispositivos SSD basados en DRAM se utilizan principalmente para acelerar aplicaciones que de otro modo serían retenidas por la latencia de SSD flash o discos duros tradicionales.

Antes, los SSD no eran viables para las soluciones de almacenamiento empresarial debido al alto coste, la baja capacidad y el rápido desgaste de las unidades. Las mejoras en la tecnología SSD y la reducción de costes los están haciendo más atractivos que los discos duros. Las unidades híbridas de estado sólido (SSHD) combinan las prestaciones de las unidades SSD y los discos duros, ya que contienen una gran unidad de disco duro con una caché SSD para mejorar el rendimiento de los datos a los que se accede con frecuencia.

Comparar las unidades SSD con los discos duros es difícil porque las referencias de los discos duros se centran en hallar aspectos relacionados con el rendimiento, como el tiempo de latencia rotacional o el tiempo de las búsquedas. Como las SSD no giran ni buscan, pueden mostrar una gran superioridad en tales pruebas. Sin embargo, las SSD tienen problemas con lecturas y escrituras mixtas, y su rendimiento puede degradarse con el tiempo.

En la siguiente tabla se compara la velocidad de transferencia de algunos de los tipos de almacenamiento más comunes que actualmente hay disponibles en el mercado.

Tecnología Velocidad (Mbps)
iSCI a través de Fast Ethernet 100
Ultra-2 Wide SCSI (16 bits/40 MHz) 640
iSCI a través de Gigabit Ethernet 1000
SATA rev. 3 6000
SAS 3 9600
Canal de fibra por Ethernet (FCoE) de más de 10 GbE 10 000
SATA rev 3.2: SATA Express 16 000
iSCI a través de Infiniband 32 000

Los discos SCSI y SATA son los más adecuados para almacenar datos que no tienen requisitos de alto rendimiento, como el almacenamiento de discos virtuales de PVS. Las unidades SAS, SSD o de canal de fibra son las más adecuadas para almacenar datos que sí tienen requisitos de alto rendimiento, como la caché de escritura de PVS.

Decisión: Ancho de banda del almacenamiento

El ancho de banda del almacenamiento es la conectividad entre los servidores y el subsistema de almacenamiento. Comprender los requisitos de ancho de banda puede ayudar a determinar el hardware idóneo para entregar datos y aplicaciones a una velocidad que permita ofrecer una experiencia positiva al usuario final. Para la mayoría de los centros de datos, Ethernet de 10 Gbps o un canal de fibra por Ethernet de 10 Gbps son suficientes para las conexiones de almacenamiento. Sin embargo, es posible que los entornos más pequeños solo necesiten un ancho de banda de 1 Gbps. En entornos virtualizados, no solo es importante tener en cuenta los requisitos de ancho de banda del host físico y del subsistema de almacenamiento; determinar el ancho de banda necesario para cada máquina virtual también juega un papel.

Para planificar el ancho de banda requerido, es necesario determinar el procesamiento de cada sistema individual que utilice un componente o una ruta de red compartidos. Por ejemplo, se proporciona la siguiente información para un entorno con 100 máquinas virtuales similares (alojadas en 10 hosts de virtualización y conectadas a una puerta de enlace NAS).

  Promedio Pico
Procesamiento por VM 10 Mbps 30 Mbps
Procesamiento por host 100 Mbps (10 VM x 10 Mbps) 300 Mbps (10 VM x 30 Mbps)
Procesamiento por almacenamiento 1 Gbps (10 hosts x 100 Mbps) 3 Gbps (10 hosts x 300 Mbps)

La tarjeta NIC utilizada en las comunicaciones de almacenamiento debe ser un adaptador de 1 Gbps para manejar la carga máxima. La puerta de enlace NAS y su conexión de red deben ser capaces de absorber el tráfico de datos de 3 Gbps para admitir la carga máxima de todos los sistemas.

Decisión: Almacenamiento por niveles

Es poco probable que una única solución de almacenamiento satisfaga los requisitos de la mayoría de las implementaciones de escritorios virtuales. El uso de niveles de almacenamiento proporciona un mecanismo eficaz para ofrecer una gama de opciones de almacenamiento diferenciadas por rendimiento, escalabilidad, redundancia y coste. Así, se pueden agrupar diferentes cargas de trabajo virtuales con requisitos de almacenamiento similares y aplicar un modelo de coste similar.

Por ejemplo, una implementación de XenDesktop con almacenamiento por niveles puede tener el siguiente aspecto:

  • Grupo de almacenamiento de nivel 1: Los archivos que consumen muchos recursos de escritura, como la caché de escritura y los discos de diferenciación, se colocan en un grupo de almacenamiento compuesto por unidades SSD.
  • Grupo de almacenamiento de nivel 2: Los datos críticos o los que requieren alta disponibilidad se colocan en un grupo de almacenamiento que consta de unidades de alto rendimiento menos costosas.
  • Grupo de almacenamiento de nivel 3: Los archivos de datos de uso poco frecuente, los archivos de solo lectura u otros datos que no sean críticos se colocan en un grupo de almacenamiento formado por unidades de bajo coste y de menor rendimiento.

Decisión: Aprovisionamiento dinámico

El aprovisionamiento dinámico permite presentar más espacio de almacenamiento a las máquinas virtuales que el que realmente hay disponible en el repositorio de almacenamiento. Esto reduce los costes de almacenamiento, ya que permite que las máquinas virtuales accedan al espacio en disco que a menudo no se utiliza. Esto es especialmente útil para Machine Creation Services, que emplea un enfoque de clonación vinculada para las máquinas virtuales de aprovisionamiento. El aprovisionamiento dinámico minimiza el espacio de almacenamiento necesario para las copias de imágenes maestras que se utilizan para crear máquinas virtuales. Este tipo de aprovisionamiento es posible en la capa de almacenamiento físico, una característica generalmente disponible en la mayoría de las soluciones para redes SAN, y también en la capa virtual. Las soluciones de almacenamiento basadas en NFS suelen tener el aprovisionamiento dinámico habilitado de forma predeterminada.

En la capa de almacenamiento físico, es importante comprobar que hay suficiente almacenamiento disponible para evitar el riesgo de no tener máquinas virtuales disponibles en casos de “sobreasignación” de almacenamiento cuando se agota el espacio disponible en disco. Las organizaciones deben decidir si el ahorro en costes que supone el aprovisionamiento dinámico compensa el riesgo asociado y considerar la posibilidad de habilitarlo si la solución de almacenamiento lo admite.

Nota

Es posible que las máquinas virtuales no funcionen si se agota el espacio en disco, por lo que es importante tener un proceso listo, ya sea mediante alertas o notificaciones que den a los administradores tiempo suficiente para agregar más discos a la solución de almacenamiento de modo que el entorno de XenDesktop no se vea afectado.

Decisión: Desduplicación de datos

La desduplicación de datos es una técnica de compresión de datos mediante la cual los datos duplicados se sustituyen por punteros dirigidos a una sola copia del elemento original. Esto reduce los costes y los requisitos de almacenamiento de información porque mejorar el uso del almacenamiento, pero puede afectar a su rendimiento.

Hay dos implementaciones de desduplicación disponibles:

  • Desduplicación de posprocesamiento: La deduplicación se realiza después de que los datos se hayan escrito en el disco. La desduplicación de posprocesamiento debe programarse fuera del horario laboral para garantizar que no afecte al rendimiento del sistema. La desduplicación de posprocesamiento ofrece ventajas mínimas para los escritorios aleatorios, ya que el disco de caché de escritura o de diferenciación suele restablecerse a diario.
  • Desduplicación en línea: Examina los datos antes de que se escriban en el disco para que los bloques duplicados no se almacenen. A veces, las comprobaciones adicionales que se realizan antes de que los datos se escriban en el disco pueden ralentizar el rendimiento. Si la desduplicación en línea está habilitada, debe supervisarse con atención para garantizar que no afecta al rendimiento del entorno de XenDesktop.

Si la solución de almacenamiento lo admite, se recomienda habilitar la desduplicación de datos de posprocesamiento para que afecte lo mínimo al rendimiento de XenDesktop.

Capa de hardware de la metodología de diseño