Méthodologie de conception d’une couche matérielle

Cette section traite du dimensionnement matériel des serveurs d’infrastructure virtuels, des bureaux virtuels et des hôtes d’applications virtuelles. Le dimensionnement de ces serveurs se fait généralement à l’aide de deux méthodes.

  • La première méthode (qui est la méthode recommandée) consiste à planifier à l’avance et à acheter du matériel en fonction des exigences de charge de travail.
  • La deuxième méthode consiste à utiliser le matériel existant selon la meilleure configuration pour prendre en charge les différentes exigences de charge de travail.

Cette section traite des décisions relatives aux deux méthodes.

Décision – Séparation de la charge de travail

Lors de la mise en œuvre d’un déploiement XenApp et XenDesktop, les charges de travail de l’infrastructure XenDesktop et les charges de travail XenApp peuvent être séparées en clusters de ressources dédiés ou mélangées sur les mêmes hôtes physiques. Citrix recommande d’utiliser des clusters de ressources pour séparer les charges de travail, en particulier dans un déploiement d’entreprise. Cela permet un meilleur dimensionnement de l’hôte car chaque charge de travail dispose d’exigences uniques, telles que les taux de surutilisation et l’utilisation de la mémoire.

Dans les environnements plus petits où les clusters de ressources entraîneraient des coûts trop élevés, les charges de travail peuvent être mélangées d’une manière qui permet quand même un environnement hautement disponible. Citrix recommande de séparer les charges de travail ; cependant, l’utilisation de charges de travail mixtes est une décision d’entreprise basée sur les coûts.

Décision – Processeur physique (pCPU)

Le tableau suivant fournit des indications sur le nombre de bureaux virtuels pouvant être pris en charge pour des charges de travail légères, moyennes et intensives en fonction du cœur physique. Chaque bureau correspond à un seul utilisateur simultané ; nous partons également du principe que le système d’exploitation a subi une optimisation.

Charge de travail utilisateur

  • Légère
Système d’exploitation Utilisateurs par cœur physique
Windows 7 13
Windows 8 12
Windows 10 12
Windows 2008 R2 18
Windows 2012 R2 21
Windows 2016 21
  • Moyenne
Système d’exploitation Utilisateurs par cœur physique
Windows 7 10
Windows 8 9
Windows 10 9
Windows 2008 R2 12
Windows 2012 R2 14
Windows 2016 14
  • Intensive
Système d’exploitation Utilisateurs par cœur physique
Windows 7 5
Windows 8 4
Windows 10 4
Windows 2008 R2 6
Windows 2012 R2 7
Windows 2016 7

L’estimation pour « Utilisateurs par cœur physique » est un nombre de référence exécutant Microsoft Office 2010. Ce nombre de référence doit être ajusté en fonction des besoins spécifiques en matière d’infrastructure. En règle générale, les caractéristiques suivantes représentent les modifications de base de la densité du serveur.

Caractéristique Impact sur la densité du serveur
Antivirus (non optimisé) Réduction de 25 %
Surveillance en temps réel Réduction de 15 %
Office 2013 Réduction de 20 %
Office 2016 Réduction de 25 %
Hyper-threading Augmentation de 20 %

Pour estimer le nombre total de cœurs physiques requis pour la charge de travail XenApp et XenDesktop, utilisez la formule suivante pour chaque groupe d’utilisateurs :

Image de la formule de charge de travail

∑ représente la somme de toutes les combinaisons de groupes d’utilisateurs « i ».

Usersi = Nombre d’utilisateurs simultanés par groupe d’utilisateurs

UsersPerCorei = Nombre d’utilisateurs par cœur physique

AV = Impact sur l’antivirus (valeur par défaut = 0,25)

Mon = Impact sur les outils de surveillance (valeur par défaut = 0,15)

Off13 = Impact sur Office 2013 (valeur par défaut = 0,2)

Off16 = Impact sur Office 2016 (valeur par défaut = 0,25)

HT = Impact sur l’hyper-threading (valeur par défaut = 0,2)

Si les charges de travail sont séparées (charges de travail XenApp et XenDesktop), la formule doit être calculée deux fois, une fois pour tous les utilisateurs XenDesktop et une autre fois pour tous les utilisateurs XenApp dans cet ordre.

Décision – Mémoire physique (pRAM)

La méthode recommandée pour le dimensionnement de la mémoire sur un hôte physique consiste à dimensionner en fonction de la mémoire totale requise pour prendre en charge les machines virtuelles et la capacité de l’UC de l’hôte. Afin de calculer la mémoire totale requise pour XenApp et XenDesktop, il suffit de multiplier le nombre de machines virtuelles par la quantité de mémoire allouée aux machines virtuelles. La somme de tous les catalogues de machines représente la RAM totale requise pour les hôtes XenApp et XenDesktop. Ceci est illustré dans la formule ci-dessous.

Image de la formule de charge de travail

∑ représente la somme de toutes les combinaisons de groupes d’utilisateurs « i ».

VMi = Nombre d’utilisateurs simultanés par groupe d’utilisateurs

vRAMi = Quantité de RAM attribuée à chaque machine virtuelle

Si les charges de travail sont séparées sur des hôtes différents (charges de travail XenApp et XenDesktop), la formule doit être calculée deux fois, une fois pour tous les utilisateurs XenDesktop et une autre fois pour tous les utilisateurs XenApp.

Décision – Hôte physique (pHost)

Dans la plupart des cas, le nombre d’hôtes physiques (pHost) prenant en charge les charges de travail XenApp et XenDesktop est limité au nombre de cœurs de processeur disponibles. La formule suivante fournit une estimation du nombre d’hôtes requis pour les charges de travail utilisateur. La formule est basée sur la pratique recommandée consistant à séparer les charges de travail XenApp et XenDesktop en raison des différents taux de surutilisation d’UC recommandés pour chacune.

pHosts XenDesktop = (Total du pCPU XenDesktop ÷ cœurs par pHost + 1)

pHosts XenApp = (Total du pCPU XenApp ÷ cœurs par pHost + 1)

Une fois que le nombre d’hôtes physiques a été déterminé en fonction des cœurs de processeur, la quantité de RAM pour chaque hôte est calculée.

pRAM XenDesktop par pHost = RAM de l’hyperviseur + (Total du pRAM XenDesktop ÷ pHosts XenDesktop - 1)

pRAM XenApp par pHost = RAM de l’hyperviseur + (Total du pRAM XenApp ÷ pHosts XenApp - 1)

Décision – Processeur graphique (GPU)

Les hôtes utilisés pour fournir des charges de travail graphiques nécessitent des processeurs graphiques pour offrir une expérience utilisateur haut de gamme. Des hôtes matériels spécifiques et des cartes graphiques sont nécessaires pour prendre en charge les graphiques haut de gamme à l’aide de HDX 3D Pro. Une liste mise à jour du matériel testé est disponible dans un article de la base de connaissances. Le dimensionnement des hôtes de bureaux et d’applications des utilisateurs graphiques haut de gamme doit être basé sur les exigences du processeur graphique. Cela permet de garantir que l’hôte dispose de ressources UC et mémoire adéquates pour prendre en charge la charge de travail.

Les cartes NVIDIA GRID peuvent être utilisées avec des profils vGPU pour prendre en charge plusieurs utilisateurs. Les recommandations en matière de dimensionnement sont fournies par NVIDIA dans le tableau ci-dessous.

Dans le tableau, O indique que les certificats d’application sont disponibles.

Carte graphique NVIDIA GRID Profil du vGPU Certificats d’application Mémoire graphique Nombre maximal d’écrans par utilisateur Résolution maximale par écran vGPU maximal par carte graphique Cas d’utilisation
GRID K2 K280Q O 4 096 Mo 4 2 560 x 1 600 2 Concepteur
  K260Q O 2 048 Mo 4 2 560 x 1 600 4 Concepteur/Utilisateur avancé
  K240Q O 1 024 Mo 2 2 560 x 1 600 8 Concepteur/Utilisateur avancé
  K220Q O 512 Mo 2 2 560 x 1 600 16 Travailleur du savoir
  K200   256 Mo 2 1 900 x 1 200 16 Utilisateur avancé
GRID K1 K180Q O 4 096 MO 4 2 560 x 1 600 4 Utilisateur avancé
  K160Q O 2 048 Mo 4 2 560 x 1 600 8 Utilisateur avancé
  K140Q O 1 024 Mo 2 2 560 x 1 600 16 Utilisateur avancé
  K120Q O 512 Mo 2 2 560 x 1 600 32 Utilisateur avancé
  K100   256 Mo 2 1 900 x 1 200 32 Travailleur du savoir

Dimensionnement du stockage

Décision – Architecture de stockage

Les architectures de stockage principales sont les suivantes :

  • Stockage local : utilise des disques durs directement connectés au système informatique. Les disques ne peuvent pas être partagés avec d’autres systèmes informatiques ; cependant, si l’ordinateur héberge des bureaux partagés regroupés ou hébergés, une solution de stockage partagé n’est pas nécessaire. Dans de nombreux cas, le stockage local peut fonctionner aussi bien que le stockage partagé. L’évolutivité est limitée au nombre de racks de disques disponibles dans le système informatique. Par exemple, de nombreux serveurs lames ne disposent que de deux racks de disques. Par conséquent, l’utilisation d’un stockage local pour prendre en charge un déploiement XenDesktop peut ne pas être une solution optimale.
  • DAS : sous-système de stockage directement relié à un serveur ou à un poste de travail à l’aide d’un câble. Le DAS utilise un stockage au niveau bloc et peut être un disque dur local sur le système informatique ou une unité de disques dotée de plusieurs disques connectés au moyen d’un câblage externe. Contrairement aux disques locaux, les unités de disques nécessitent une gestion séparée. Les unités de stockage peuvent être connectées à plusieurs serveurs afin de partager les données ou les disques.
  • NAS : fournit un stockage au niveau des fichiers aux systèmes informatiques via des partages de fichiers réseau. Le NAS fonctionne comme un serveur de fichiers : les systèmes NAS sont des appliances en réseau qui contiennent un ou plusieurs disques durs, souvent organisés dans des conteneurs de stockage logiques et redondants ou des baies RAID. L’accès est généralement fourni à l’aide de protocoles Ethernet standard et de partage de fichiers réseau, tels que NFS, SMB/CIFS ou AFP.

Remarque

Le NAS peut devenir un point de défaillance unique. Si le partage réseau devient indisponible, toutes les machines cibles diffusées à partir du disque seront également indisponibles.

  • SAN : réseau de stockage dédié qui permet d’accéder au stockage consolidé au niveau bloc. Les SAN permettent aux ordinateurs de se connecter à différents périphériques de stockage, de sorte qu’aucun serveur ne possède la propriété du sous-système de stockage permettant le partage des données entre plusieurs ordinateurs. Un SAN dispose généralement de son propre réseau dédié de périphériques de stockage qui ne sont généralement pas accessibles via le réseau par des moyens standard. Pour connecter un appareil au réseau SAN, une carte spécialisée, appelée HBA ou adaptateur de bus hôte, est requise. Les réseaux SAN sont hautement évolutifs et ne présentent aucun changement notable au niveau des performances à mesure que davantage de périphériques de stockage et d’appareils sont connectés. Les SAN peuvent être un investissement coûteux, tant en termes de capital que de temps nécessaire à l’apprentissage, au déploiement et à la gestion de la technologie.
  • Stockage hybride : une tête NAS fait référence à un NAS qui ne dispose pas de stockage intégré, mais qui se connecte à un SAN. En effet, elle fait office de traducteur entre les protocoles NAS au niveau fichier (NFS, CIFS, etc.) et les protocoles SAN au niveau bloc (Fibre Channel et iSCSI). Ainsi, elle peut combiner les avantages des deux technologies et permet aux ordinateurs sans adaptateur de bus hôte (HBA) de se connecter à un stockage centralisé.

Le tableau suivant récapitule les options de stockage disponibles et évalue leur pertinence pour les déploiements XenDesktop.

Propriétés de stockage Stockage local DAS NAS SAN
Coût de mise en œuvre Faible Modéré Modéré Élevé
Administration Faible Modéré Modéré Élevé
Performances Élevé Modéré - Élevé Modéré - Élevé Élevé
Redondance Faible - Modéré Modéré - Élevé Modéré - Élevé Élevé
Capacité à monter en charge Faible Modéré - Élevé Modéré - Élevé Élevé
Cas d’utilisation typique Environnements de production et de test de petite à moyenne taille Environnements de production de petite à moyenne taille Environnements de production de petite à moyenne taille Environnements de production de moyenne à grande taille

Remarque

Hyper-V 2008 R2 ne prend pas en charge la technologie NAS. Hyper-V 2012/2012 R2 prend uniquement en charge les solutions NAS qui sont compatibles avec le protocole SMB 3.0. Pour plus d’informations, veuillez consulter les sections HyperV 2008 R2 et Hyper-V 2012 R2 du guide.

Le stockage local est le mieux adapté pour stocker des machines virtuelles qui n’ont pas d’exigences en matière de haute disponibilité ou de données persistantes connectées, telles que des bureaux aléatoires (regroupés) ou des bureaux partagés hébergés. Le stockage local et le DAS sont adaptés pour stocker des données utilisateur et des fichiers de répertoire personnel. Si vous utilisez Machine Creation Services, les images principales ainsi que les mises à jour doivent être répliquées sur chaque serveur.

Le stockage NAS et SAN convient le mieux aux serveurs d’infrastructure prenant en charge l’environnement XenDesktop et aux machines virtuelles avec des données persistantes telles que des bureaux statiques (dédiés).

Décision – Niveau RAID

Pour choisir le niveau RAID optimal, il est nécessaire de prendre en compte les IOPS et le taux lecture/écriture générés par une application ou une charge de travail donnée en combinaison avec les capacités individuelles d’un niveau RAID. Pour l’hébergement de charges de travail intensives en lecture, telles que le magasin vDisk Provisioning Services, les niveaux RAID optimisés pour les opérations de lecture telles que RAID 1, 5, 6, 10 sont parfaitement adaptés. En effet, ces niveaux RAID permettent de répartir simultanément les opérations de lecture sur tous les disques de l’ensemble RAID.

Pour l’hébergement de charges de travail intensives en écriture, telles que le cache en écriture Provisioning Services et les disques de différenciation Machine Creation Services, les niveaux RAID tels que RAID 1 ou 10 représentent la solution optimale. En effet, ils sont optimisés pour les écritures et présentent une faible pénalité d’écriture.

Le tableau suivant présente les principaux attributs quantitatifs des niveaux RAID les plus couramment utilisés :

RAID Capacité (%) Tolérance de panne Performances de lecture Performances d’écriture Nombre minimal de disques
0 100 Aucun Très élevé Élevé (pénalité d’écriture 1) 2
1 50 Défaillance d’un seul disque Très élevé Modéré (pénalité d’écriture 2) 2
5 67 - 94 Défaillance d’un seul disque Élevé Faible (pénalité d’écriture 4) 3
6 50 - 88 Défaillance d’un double disque Élevé Faible (pénalité d’écriture 6) 4
10 50 Défaillance d’un seul disque dans chaque sous-baie Très élevé Modéré (pénalité d’écriture 2) 4

Remarque

La pénalité d’écriture est fondamentale aux techniques de protection des données RAID qui nécessitent plusieurs requêtes d’E/S de disque pour chaque requête d’écriture d’application ; cette pénalité peut aller d’un taux minimal (baies en miroir) à un taux substantiel (niveaux RAID 5 et 6).

Décision – Nombre de disques

Pour déterminer le nombre de disques requis, il est important de comprendre les caractéristiques de performance de chaque disque, les caractéristiques du niveau RAID et les exigences de performances de la charge de travail donnée. Le calcul de base pour déterminer le nombre total de disques nécessaires est le suivant :

Nombre total de disques = nombre total d’E/S par seconde en lecture + (nombre total d’E/S par seconde en écriture x pénalité RAID) ÷ vitesse d’E/S disque par seconde

Par exemple, un fabricant de disques signale qu’une baie de disques particulière qu’il a développée dispose d’un nombre total d’E/S par seconde lié à la charge de travail de 2 000. Le nombre d’E/S par seconde brut par disque est de 175. Pour déterminer le nombre de disques requis pour prendre en charge une charge de travail avec 20 % d’opérations de lecture et 80 % d’opérations d’écriture sur RAID 10, utilisez le calcul suivant :

Nombre total de disques = ((20 % x 2 000) + (80 % x 2 000) x 2) ÷ 175 = 20,57 ou 21 disques

Sur la base de l’exemple précédent, le tableau suivant montre comment le nombre de disques varie en fonction du niveau RAID et du ratio lecture/écriture.

RAID Nombre d’E/S par seconde brut (par disque) Nombre d’E/S par seconde lié à la charge de travail Lecture (%) Écriture (%) Nombre de disques
0 175 2 000 20 80 12
  175 2 000 80 20 12
1/10 175 2 000 20 80 21
  175 2 000 80 20 14
5 175 2 000 20 80 39
  175 2 000 80 20 19

Décision – Type de disque

Les lecteurs de disque dur (HDD) représentent la variante traditionnelle des lecteurs de disque. Ces types de disques sont constitués de plateaux rotatifs sur une broche à moteur à l’intérieur d’un boîtier de protection. Les données sont écrites magnétiquement sur le plateau et lues à partir du plateau par des têtes de lecture/écriture.

Plusieurs mises en œuvre de cette technologie sont disponibles sur le marché et diffèrent en termes de performances, de coût et de fiabilité.

  • Le disque Serial ATA (SATA) transmet les données en série sur deux paires de conducteurs. Une paire est utilisée pour la transmission différentielle des données, et l’autre pour la réception différentielle des données. Les lecteurs SATA sont très répandus dans les ordinateurs de bureau et portables grand public. Les lecteurs SATA standard ont des vitesses de transfert allant de 1 500 à 6 000 Mbits/s et sont conçus pour prendre en charge le remplacement à chaud.
  • Les disques SCSI (Small Computer Systems Interface) sont dotés d’une interface tampon pair à pair qui utilise des signaux d’établissement de liaison entre les appareils. De nombreux appareils SCSI nécessitent un initiateur SCSI pour lancer des transactions SCSI entre l’hôte et la cible SCSI. Les disques SCSI sont courants dans les postes de travail et les serveurs et ont des débits allant de 40 à 5 120 Mbits/s. iSCSI (Internet Small Computer System Interface) correspond à un mappage du protocole SCSI standard sur TCP/IP, plus généralement sur Gigabit Ethernet.
  • Le disque Fibre Channel (FC) est le successeur du disque SCSI parallèle et est courant dans les périphériques de stockage SAN. Les signaux Fibre Channel peuvent fonctionner sur une interface électrique ou des câbles à fibre optique. Le débit va de 1 à 20 Gbits/s, et les connexions sont enfichables à chaud.
  • Le disque SAS (Serial Attached SCSI) utilise un protocole de communication série de nouvelle génération pour permettre des transferts de données plus rapides que les disques SATA. Le débit peut aller de 2 400 à 9 600 Mbits/s.

Contrairement aux disques durs traditionnels, les disques durs SSD (Solid State Disks) utilisent des micropuces pour conserver des données dans des puces mémoire NAND non volatiles (flash) ou DRAM et ne contiennent aucune pièce mobile. Les disques SSD sont moins sensibles aux chocs physiques, ont des temps d’accès et une latence plus faibles et ont des taux d’E/S plus élevés. Les SSD ont des performances de lecture aléatoire significativement plus élevées. Un disque SSD peut atteindre entre 5 000 et 20 000 lectures aléatoires par seconde. Les disques SSD sont également plus chers par gigaoctet (Go) et prennent généralement en charge un nombre limité d’écritures sur toute la durée de vie du disque.

Les SSD basés sur la mémoire Flash peuvent reposés sur des cellules à plusieurs niveaux (MLC) ou des cellules à un niveau (SLC). Les appareils SLC ne stockent qu’un bit d’information dans chaque cellule. Les appareils MLC peuvent stocker plusieurs bits d’informations dans chaque cellule. Les SSD basés sur Flash coûtent moins cher que les SSD basés sur DRAM mais fonctionnent plus lentement. Les appareils SSD basés sur DRAM sont principalement utilisés pour accélérer les applications qui seraient autrement bloquées par la latence des SSD flash ou des disques durs traditionnels.

Auparavant, les disques durs SSD n’étaient pas viables pour les solutions de stockage d’entreprise en raison du coût élevé, de la faible capacité et de l’usure rapide des disques durs. L’amélioration de la technologie SSD et la réduction des coûts les rendent plus favorables que les disques durs. Les disques SSHD (Solid State Hybrid Drive) combinent les fonctionnalités des SSD et des disques durs, en contenant un disque dur volumineux avec un cache SSD pour améliorer les performances des données fréquemment consultées.

Il est difficile de comparer les disques SSD et les disques durs car les points de référence des disques durs sont axés sur des aspects de performance, tels que le temps de latence de rotation et le temps de recherche. Étant donné que la latence de rotation et le temps de recherche ne s’appliquent pas aux SSD, ils peuvent afficher une supériorité considérable dans de tels tests. Cependant, les disques SSD présentent des difficultés au niveau des lectures et des écritures mixtes et leurs performances peuvent se dégrader au fil du temps.

Le tableau suivant compare les taux de transfert de certains des types de stockage les plus courants disponibles sur le marché aujourd’hui.

Technologie Taux (Mbits/s)
iSCI sur Fast Ethernet 100
Ultra-2 Wide SCSI (16 bits/40 MHz) 640
iSCI sur Gigabit Ethernet 1 000
SATA rev 3 6 000
SAS 3 9 600
FCoE supérieur à 10 GbE 10 000
SATA rev 3.2 - SATA Express 16 000
iSCI sur Infiniband 32 000

Les disques SCSI et SATA sont les mieux adaptés pour stocker des données qui ne présentent pas d’exigences élevées en matière de performances telles que le magasin vDisk PVS. Les disques SAS, Fibre Channel ou SSD sont les mieux adaptés pour stocker des données présentant des exigences élevées en matière de performances telles que le cache en écriture PVS.

Décision – Bande passante de stockage

La bande passante de stockage représente la connectivité entre les serveurs et le sous-système de stockage. En comprenant les exigences en matière de bande passante, vous pouvez déterminer le matériel approprié pour fournir des données et des applications à des vitesses permettant une expérience utilisateur positive. Pour la plupart des centres de données, une bande passante de 10 Gbits/s Ethernet ou 10 Gbits/s FCoE est suffisant pour les connexions de stockage. Toutefois, les environnements plus petits n’ont besoin que d’une bande passante de 1 Gbit/s. Dans les environnements virtualisés, il est important non seulement d’examiner les besoins en bande passante de l’hôte physique et du sous-système de stockage, mais également de déterminer la quantité de bande passante requise pour chaque machine virtuelle.

Afin de planifier la bande passante requise, il est nécessaire de déterminer les débits de chaque système qui utilise un composant partagé ou un chemin réseau. Par exemple, les informations suivantes sont fournies pour un environnement comportant 100 machines virtuelles similaires (hébergées sur 10 hôtes de virtualisation et connectées à une tête NAS).

  Valeur moyenne Valeur maximale
Débit par VM 10 Mbits/s 30 Mbits/s
Débit par hôte 100 Mbits/s (10 VM x 10 Mbits/s) 300 Mbits/s (10 VM x 30 Mbits/s)
Débit par stockage 1 Gbit/s (10 hôtes x 100 Mbits/s) 3 Gbits/s (10 hôtes x 300 Mbits/s)

La carte d’interface réseau utilisée pour la communication de stockage doit être un adaptateur de 1 Gbit/s afin de gérer la charge maximale. La tête NAS ainsi que sa connexion réseau doivent prendre en charge le trafic de données d’une valeur de 3 Gbits/s afin de gérer la charge maximale de tous les systèmes.

Décision – Stockage hiérarchisé

Il est peu probable qu’une solution de stockage unique réponde aux exigences de la plupart des mises en œuvre de bureaux virtuels. L’utilisation de niveaux de stockage offre un mécanisme efficace pour fournir une gamme d’options de stockage différentes, différenciées par les performances, l’évolutivité, la redondance et le coût. De cette façon, différentes charges de travail virtuelles ayant des besoins de stockage similaires peuvent être regroupées et un modèle de coût similaire peut être appliqué.

Par exemple, une mise en œuvre XenDesktop utilisant le stockage hiérarchisé peut ressembler à ce qui suit :

  • Groupe de stockage de niveau 1 : les fichiers intensifs en écriture, tels que le cache en écriture et les disques de différenciation, sont placés dans un groupe de stockage constitué de SSD.
  • Groupe de stockage de niveau 2 : les données critiques ou les données nécessitant une haute disponibilité sont placées dans un groupe de stockage constitué de disques à hautes performances moins onéreux.
  • Groupe de stockage de niveau 3 : les fichiers de données rarement utilisés, les fichiers en lecture seule ou les autres données non critiques sont placés dans un groupe de stockage constitué de disques peu coûteux et moins performants.

Décision – Allocation dynamique

L’allocation dynamique permet de présenter davantage d’espace de stockage aux machines virtuelles par rapport à ce qui est réellement disponible sur le référentiel de stockage. Cela réduit les coûts de stockage en permettant aux machines virtuelles d’accéder à l’espace disque souvent inutilisé. Cette méthode est particulièrement avantageuse pour Machine Creation Services qui utilise une approche de clone lié pour provisionner des machines virtuelles. L’allocation dynamique réduit l’espace de stockage requis pour les copies d’image principale utilisées pour créer des machines virtuelles. L’allocation dynamique est possible au niveau de la couche de stockage physique, une fonctionnalité généralement disponible avec la plupart des solutions SAN, et au niveau de la couche virtuelle. L’allocation dynamique est généralement activée par défaut sur les solutions de stockage basées sur NFS.

Au niveau de la couche de stockage physique, il est important de s’assurer qu’un espace de stockage suffisant est disponible pour éviter le risque que les machines virtuelles ne soient pas disponibles dans un scénario de « surutilisation » de stockage lorsque l’espace disque disponible est épuisé. Les entreprises doivent décider si les économies réalisées par l’allocation dynamique l’emportent sur les risques associés et envisager de l’activer si la solution de stockage peut prendre en charge cette méthode.

Remarque

Les machines virtuelles peuvent ne pas fonctionner si l’espace disque est épuisé ; il est donc important d’avoir un processus en place, soit par le biais d’alertes ou de notifications qui donnent aux administrateurs suffisamment de temps pour ajouter davantage de disques à la solution de stockage afin que l’environnement XenDesktop ne soit pas affecté.

Décision – Déduplication des données

La déduplication des données est une technique de compression de données grâce à laquelle les données dupliquées sont remplacées par des pointeurs vers une seule copie de l’élément d’origine. Cette méthode permet de réduire les besoins et les coûts de stockage en améliorant l’utilisation du stockage, mais elle peut également avoir une incidence sur les performances du stockage.

Deux mises en œuvre de déduplication sont disponibles :

  • Déduplication post-processus : la déduplication est effectuée après l’écriture des données sur le disque. La déduplication post-processus doit être planifiée en dehors des heures d’activité afin de s’assurer qu’elle n’a pas d’incidence sur les performances du système. La déduplication post-processus offre des avantages minimes pour les bureaux aléatoires, car le disque de cache en écriture ou le disque de différenciation sont généralement réinitialisés quotidiennement.
  • Déduplication en ligne : cette méthode examine les données avant qu’elles ne soient écrites sur le disque afin que les blocs dupliqués ne soient pas stockés. Les vérifications supplémentaires effectuées avant l’écriture des données sur le disque peuvent parfois ralentir les performances. Si cette option est activée, la duplication en ligne doit être soigneusement surveillée pour s’assurer qu’elle n’affecte pas les performances de l’environnement XenDesktop.

Si la solution de stockage prend en charge la déduplication des données post-processus, il est recommandé d’activer cette méthode afin d’avoir un impact minimal sur les performances de XenDesktop.

Méthodologie de conception d’une couche matérielle