Formats de référentiel de stockage

Vous pouvez utiliser l’assistant Nouveau référentiel de stockage dans XenCenter pour créer des référentiels de stockage. L’Assistant vous guide à travers les étapes de configuration. Vous pouvez également utiliser l’interface de ligne de commande et lasr-create commande. Lasr-create commande crée un SR sur le substrat de stockage (détruisant potentiellement toutes les données existantes). Il crée également l’objet API SR et un enregistrement PBD correspondant, permettant aux machines virtuelles d’utiliser le stockage. Lors de la création réussie du SR, le PBD est automatiquement branché. Si l’indicateur SR est défini, un enregistrement PBD est créé et branché pour chaque Citrix Hypervisor du pool de ressources.``shared=true

Si vous créez un SR pour le stockage IP (iSCSI ou NFS), vous pouvez configurer l’un des éléments suivants en tant que réseau de stockage : la carte réseau qui gère le trafic de gestion ou une nouvelle carte réseau pour le trafic de stockage. Pour affecter une adresse IP à une carte réseau, reportez-vous à la sectionConfigurer une carte réseau de stockage dédiée.

Tous les types Citrix Hypervisor SR prennent en charge le redimensionnement VDI, le clonage rapide et le snapshot. Les SR basées sur le type LVM SR (local, iSCSI ou HBA) fournissent un provisionnement léger pour les nœuds parents instantanés et masqués. Les autres types SR (EXT3, NFS, GFS2) prennent en charge le provisionnement fin complet, y compris pour les disques virtuels actifs.

Avertissement :

Lorsque les VDI VHD ne sont pas attachés à une machine virtuelle, par exemple pour un instantané VDI, ils sont stockés en tant que provisionnés finement par défaut. Si vous tentez de reconnecter le VDI, assurez-vous qu’il y a suffisamment d’espace disque disponible pour que le VDI soit provisionné de manière épaisse. Les clones VDI sont provisionnés de manière épaisse.

Les tailles VDI maximales prises en charge sont les suivantes :

Format du référentiel de stockage Taille maximale de VDI
EXT3 2 TiB
LVM 2 TiB
NFS 2 TiB
LvmofCoe 2 TiB
LvMoiscsi 2 TiB
Lvmohba 2 TiB
GFS2 (avec iSCSI ou HBA) 16 TiB

LVM locale

Le type LVM local présente des disques au sein d’un groupe de volumes attaché localement.

Par défaut, Citrix Hypervisor utilise le disque local sur l’hôte physique sur lequel il est installé. Le gestionnaire de volumes logiques (LVM) Linux est utilisé pour gérer le stockage de machines virtuelles. Un VDI est implémenté au format VHD dans un volume logique LVM de la taille spécifiée.

Considérations sur les performances LVM

La fonctionnalité de clone instantané et de clone rapide pour les SR basées sur LVM est associée à une surcharge de performances inhérente. Lorsque des performances optimales sont requises, Citrix Hypervisor prend en charge la création de VDI au format brut en plus du format VHD par défaut. La fonctionnalité d’instantané Citrix Hypervisor n’est pas prise en charge sur les VDI bruts.

Les snapshots non transportables qui utilisent le fournisseur VSS Windows par défaut fonctionnent sur tout type de VDI.

Avertissement :

n’essayez pas d’instantaner une machine virtuelle avectype=rawdes disques attachés. Cette action peut entraîner la création d’un instantané partiel. Dans ce cas, vous pouvez identifier les VDI de snapshot orphelins en cochant lesnapshot-of champ, puis en les supprimant.

Création d’une SR LVM locale

Une SR LVM est créée par défaut lors de l’installation de l’hôte.

Les paramètres de configuration de périphérique pour les SR LVM sont les suivants :

Nom du paramètre Description Obligatoire ?
Appareil Nom du périphérique sur l’hôte local à utiliser pour la SR Oui

Pour créer une SR LVM locale sur/dev/sdb, utilisez la commande suivante.

    xe sr-create host-uuid=valid_uuid content-type=user \
    name-label="Example Local LVM SR" shared=false \
    device-config:device=/dev/sdb type=lvm

EXT3 local

L’utilisation de EXT3 permet le provisionnement léger sur le stockage local. Toutefois, le type de référentiel de stockage par défaut est LVM car il offre des performances d’écriture cohérentes et empêche le stockage de trop commit. Si vous utilisez EXT3, vous pouvez voir des performances réduites dans les cas suivants :

  • Lors de l’exécution d’opérations de cycle de vie des machines virtuelles telles que la création et la suspendre/reprise de la machine virtuelle
  • Lors de la création de fichiers volumineux à partir de la machine virtuelle

Les EXT SRs de disque local doivent être configurés à l’aide de l’interface de ligne de commande Citrix Hypervisor.

Création d’un EXT3 SR local (ext)

Paramètres de configuration du périphérique pour les SR ext :

Nom du paramètre Description Obligatoire ?
Appareil Nom du périphérique sur l’hôte local à utiliser pour la SR Oui

Pour créer un poste SR local sur/dev/sdb, utilisez la commande suivante :

    xe sr-create host-uuid=valid_uuid content-type=user \
       name-label="Example Local EXT3 SR" shared=false \
       device-config:device=/dev/sdb type=ext

udev

Leudev type représente les périphériques branchés à l’aide du gestionnaire deudev périphériques en tant que VDI.

Citrix Hypervisor dispose de deux SRs de typeudev qui représentent un stockage amovible. L’une concerne le CD ou le DVD du lecteur physique de CD ou de DVD-ROM du serveur Citrix Hypervisor. L’autre concerne un périphérique USB branché sur un port USB du serveur Citrix Hypervisor. Les VDI qui représentent les médias vont et viennent au fur et à mesure que des disques ou des clés USB sont insérés et retirés.

ISO

Le type ISO gère les images CD stockées sous forme de fichiers au format ISO. Ce type SR est utile pour créer des bibliothèques ISO partagées. Pour les référentiels de stockage qui stockent une bibliothèque d’ISO, lecontent-type paramètre doit être défini suriso .

Par exemple :

    xe sr-create host-uuid=valid_uuid content-type=iso \
      type=iso name-label="Example ISO SR" \
      device-config:location=nfs server:path

Nous vous recommandons d’utiliser SMB version 3.0 pour monter ISO SR sur le serveur de fichiers Windows. La version 3.0 est sélectionnée par défaut car elle est plus sûre et robuste que SMB version 1.0. Toutefois, vous pouvez installer ISO SR à l’aide de SMB version 1.0 à l’aide de la commande suivante :

     xe sr-create content-type=iso type=iso shared=true device-config:location=valid location
     device-config:username=username device-config:cifspassword=password
     device-config:type=cifs device-config:vers=Choose either 1.0 or 3.0 name-label="Example ISO SR"

Remarque :

Lors de l’exécution de la commande sr-create, vous pouvez utiliser l’argument device-config:cifspassword_secret au lieu de spécifier le mot de passe sur la ligne de commande. Pour de plus amples informations, consultez la section Secrets.

Prise en charge des logiciels iSCSI

Citrix Hypervisor prend en charge les SRS partagés sur les LUN iSCSI. iSCSI est pris en charge à l’aide de l’initiateur iSCSI Open-iSCSI ou à l’aide d’un adaptateur de bus hôte iSCSI pris en charge. Les étapes d’utilisation des adaptateurs HBA iSCSI sont identiques à celles des adaptateurs HBA Fibre Channel. Les deux ensembles d’étapes sont décrits à la sectionCréer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR.

La prise en charge iSCSI partagée à l’aide de l’initiateur iSCSI logiciel est implémentée sur la base du gestionnaire de volumes Linux (LVM). Cette fonctionnalité offre les mêmes avantages en termes de performances que les VDI LVM dans le cas du disque local. Les SRs iSCSI partagés utilisant l’initiateur hôte logiciel peuvent prendre en charge l’agilité des machines virtuelles grâce à la migration en direct : les machines virtuelles peuvent être démarrées sur n’importe quel serveur Citrix Hypervisor dans un pool de ressources et migrées entre elles sans interruption notable.

Les SR iSCSI utilisent la LUN entière spécifiée au moment de la création et ne peuvent pas s’étendre sur plus d’un LUN. La prise en charge CHAP est assurée pour l’authentification du client, à la fois pendant l’initialisation du chemin de données et les phases de découverte des LUN.

Remarque :

La taille de bloc d’un LUN iSCSI doit être de 512 octets.

Configuration iSCSI du serveur Citrix Hypervisor

Tous les initiateurs et cibles iSCSI doivent avoir un nom unique pour s’assurer qu’ils peuvent être identifiés de manière unique sur le réseau. Un initiateur a une adresse d’initiateur iSCSI et une cible a une adresse de cible iSCSI. Collectivement, ces noms sont appelés Noms qualifiés iSCSI ou IQN.

Les serveurs Citrix Hypervisor prennent en charge un initiateur iSCSI unique qui est automatiquement créé et configuré avec un IQN aléatoire lors de l’installation de l’hôte. L’initiateur unique peut être utilisé pour se connecter simultanément à plusieurs cibles iSCSI.

Les cibles iSCSI fournissent généralement le contrôle d’accès à l’aide des listes IQN des initiateurs iSCSI. Toutes les cibles iSCSI /LUN auxquelles votre serveur Citrix Hypervisor accède doivent être configurées pour autoriser l’accès par l’IQN initiateur de l’hôte. De même, les cibles/LUN à utiliser en tant que SR iSCSI partagés doivent être configurés pour autoriser l’accès par tous les IQN hôtes du pool de ressources.

Remarque :

Les cibles iSCSI qui ne fournissent pas de contrôle d’accès par défaut limitent généralement l’accès aux LUN à un seul initiateur pour garantir l’intégrité des données. Si un LUN iSCSI est utilisé comme SR partagé sur plusieurs serveurs d’un pool, assurez-vous que l’accès à plusieurs initiateurs est activé pour le LUN spécifié.

La valeur IQN du serveur Citrix Hypervisor peut être ajustée à l’aide de XenCenter ou à l’aide de l’interface de ligne de commande avec la commande suivante lors de l’utilisation de l’initiateur logiciel iSCSI :

    xe host-param-set uuid=valid_host_id other-config:iscsi_iqn=new_initiator_iqn

Avertissement :

  • Chaque cible iSCSI et chaque initiateur doivent avoir un IQN unique. Si un identifiant IQN non unique est utilisé, des données endommagées ou un refus d’accès aux LUN peuvent se produire.
  • Ne modifiez pas l’IQN du serveur Citrix Hypervisor avec des SRs iSCSI attachés. Cela peut entraîner des défaillances de connexion à de nouvelles cibles ou à des SR existants.

Stockage FCoE logiciel

Software FCoE fournit un cadre standard auquel les fournisseurs de matériel peuvent brancher leur carte réseau compatible FCOE et bénéficier des mêmes avantages qu’un FCoE basé sur le matériel. Cette fonctionnalité élimine la nécessité d’utiliser des adaptateurs HBA coûteux.

Avant de créer un stockage FCoE logiciel, effectuez manuellement la configuration requise pour exposer un LUN à l’hôte. Cette configuration inclut la configuration de la structure FCoE et l’allocation de LUN au nom public du monde entier (PWWN) de votre SAN. Une fois cette configuration terminée, le LUN disponible est installé sur le CNA de l’hôte en tant que périphérique SCSI. Le périphérique SCSI peut ensuite être utilisé pour accéder au LUN comme s’il s’agissait d’un périphérique SCSI connecté localement. Pour plus d’informations sur la configuration du commutateur physique et de la baie pour prendre en charge FCoE, consultez la documentation fournie par le fournisseur.

Remarque :

Le logiciel FCoE peut être utilisé avec Open vSwitch et le pont Linux comme back-end réseau.

Créer un logiciel FCoE SR

Avant de créer un logiciel FCoE SR, les clients doivent s’assurer que des cartes réseau compatibles FCOE sont connectées à l’hôte.

Les paramètres de configuration du périphérique pour les SR FCoE sont les suivants :

Nom du paramètre Description Obligatoire ?
SCSIid ID de bus SCSI du LUN de destination Oui

Exécutez la commande suivante pour créer un SR FCoE partagé :

    xe sr-create type=lvmofcoe \
    name-label="FCoE SR" shared=true device-config:SCSIid=SCSI_id

Adaptateurs de bus hôte matériels (HBA)

Cette section couvre diverses opérations nécessaires à la gestion des adaptateurs HBA SAS, Fibre Channel et iSCSI.

Exemple de configuration de l’adaptateur HBA iSCSI QLogic

Pour plus d’informations sur la configuration des adaptateurs HBA Fibre Channel et iSCSI QLogic, consultez le site Web de Cavium.

Une fois l’adaptateur HBA installé physiquement sur le serveur Citrix Hypervisor, procédez comme suit pour configurer l’adaptateur HBA :

  1. Définissez la configuration réseau IP pour le HBA. Cet exemple suppose le port 0 DHCP et HBA. Spécifiez les valeurs appropriées si vous utilisez l’adressage IP statique ou un adaptateur HBA multiport.

    /opt/QLogic_Corporation/SANsurferiCLI/iscli -ipdhcp 0
    
  2. Ajoutez une cible iSCSI persistante au port 0 du HBA.

    /opt/QLogic_Corporation/SANsurferiCLI/iscli -pa 0 iscsi_target_ip_address
    
  3. Utilisez la commande xe sr-probe pour forcer une nouvelle analyse du contrôleur HBA et afficher les LUN disponibles. Pour plus d’informations, consultez Analyser un SR et Créer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR.

Supprimer les entrées de périphériques SAS, FC ou iSCSI basés sur HBA

Remarque :

Cette étape n’est pas requise. Nous recommandons que seuls les utilisateurs de puissance effectuent ce processus si nécessaire.

Chaque LUN basé sur HBA a une entrée de chemin global correspondant/dev/disk/by-scsibus sous le format<SCSIid>-<adapter>:<bus>:<target>:<lun> et un chemin de périphérique standard sous/dev . Pour supprimer les entrées de périphérique pour les LUN qui ne sont plus utilisées en tant que SR, procédez comme suit :

  1. Utilisezsr-forget ousr-destroy le cas échéant pour supprimer le SR de la base de données du serveur Citrix Hypervisor. Voir Supprimer les SR pour plus de détails.

  2. Supprimez la configuration de zonage dans le SAN pour le LUN souhaité sur l’hôte souhaité.

  3. Utilisez lasr-probe commande pour déterminer les valeurs ADAPTER, BUS, TARGET et LUN correspondant au LUN à supprimer. Pour plus d’informations,Analyser un SR.

  4. Supprimez les entrées du périphérique avec la commande suivante :

    echo "1" > /sys/class/scsi_device/adapter:bus:target:lun/device/delete
    

Avertissement :

Assurez-vous que vous êtes certain du LUN que vous supprimez. La suppression accidentelle d’un LUN requis pour le fonctionnement de l’hôte, comme le périphérique de démarrage ou le périphérique racine, rend l’hôte inutilisable.

Stockage LVM partagé

Le type LVM partagé représente les disques en tant que volumes logiques au sein d’un groupe de volumes créé sur un LUN iSCSI (FC ou SAS).

Remarque :

La taille de bloc d’un LUN iSCSI doit être de 512 octets.

Créez une LVM partagée sur iSCSI SR à l’aide de l’initiateur iSCSI Software

Paramètres de configuration de périphérique pour les SR LVMoisCSI :

Nom du paramètre Description Obligatoire ?
target Adresse IP ou nom d’hôte du serveur de fichiers iSCSI qui héberge le SR Oui
targetIQN Adresse cible IQN du serveur de fichiers iSCSI qui héberge la SR Oui
SCSIid ID de bus SCSI du LUN de destination Oui
chapuser Le nom d’utilisateur à utiliser pour l’authentification CHAP Non
chappassword Le mot de passe à utiliser pour l’authentification CHAP Non
port Numéro de port réseau sur lequel interroger la cible Non
usediscoverynumber Index d’enregistrement iSCSI spécifique à utiliser Non
incoming_chapuser Nom d’utilisateur utilisé par le filtre iSCSI pour s’authentifier sur l’hôte Non
incoming_chappassword Mot de passe utilisé par le filtre iSCSI pour s’authentifier sur l’hôte Non

Pour créer une SR LvMoisCSI partagée sur un LUN spécifique d’une cible iSCSI, utilisez la commande suivante.

    xe sr-create host-uuid=valid_uuid content-type=user \
    name-label="Example shared LVM over iSCSI SR" shared=true \
    device-config:target=target_ip= device-config:targetIQN=target_iqn= \
    device-config:SCSIid=scsci_id \
    type=lvmoiscsi

Créer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR

Les SRs de type LVMoHBA peuvent être créés et gérés à l’aide de l’interface de ligne de commande xe ou de XenCenter.

Paramètres de configuration du périphérique pour les SR LvMOHBA :

Nom du paramètre Description Obligatoire ?
SCSIid ID SCSI de périphérique Oui

Pour créer une SR LvmoHba partagée, effectuez les opérations suivantes sur chaque hôte du pool :

  1. Zone dans une ou plusieurs LUN vers chaque serveur Citrix Hypervisor dans le pool. Ce processus est très spécifique à l’équipement SAN utilisé. Pour plus d’informations, consultez la documentation de votre SAN.

  2. Si nécessaire, utilisez l’interface de ligne de commande HBA incluse dans le serveur Citrix Hypervisor pour configurer l’adaptateur HBA :

      • Emulex./bin/sbin/ocmanager
    • QLogic FC :/opt/QLogic_Corporation/SANsurferCLI

    • QLogic iSCSI :/opt/QLogic_Corporation/SANsurferiCLI

    Pour obtenir un exemple de configuration de l’adaptateur HBA iSCSI QLogic, voir Adaptateurs de bus hôte matériel (HBA) dans la section précédente. Pour plus d’informations sur les adaptateurs HBA Fibre Channel et iSCSI, consultez lesBroadcomsites WebCaviumet.

  3. Utilisez la commande sr-probe pour déterminer le chemin global du périphérique du LUN HBA. La commande sr-probe force une nouvelle analyse des adaptateurs HBA installés dans le système pour détecter les nouveaux LUN qui ont été zonés à l’hôte. La commande renvoie une liste de propriétés pour chaque LUN trouvé. Spécifiez le paramètre host-uuid pour vous assurer que la sonde se produit sur l’hôte souhaité.

    Le chemin global du périphérique retourné en tant que propriété <path> est commun à tous les hôtes du pool. Par conséquent, ce chemin doit être utilisé comme valeur pour le paramètre device-config:device lors de la création du SR.

    Si plusieurs LUN sont présentes, utilisez le fournisseur, la taille du LUN, le numéro de série du LUN ou l’ID SCSI de la<path> propriété pour identifier le LUN souhaité.

        xe sr-probe type=lvmohba \
        host-uuid=1212c7b3-f333-4a8d-a6fb-80c5b79b5b31
        Error code: SR_BACKEND_FAILURE_90
        Error parameters: , The request is missing the device parameter, \
        <?xml version="1.0" ?>
        <Devlist>
            <BlockDevice>
                <path>
                    /dev/disk/by-id/scsi-360a9800068666949673446387665336f
                </path>
                <vendor>
                    HITACHI
                </vendor>
                <serial>
                    730157980002
                </serial>
                <size>
                    80530636800
                </size>
                <adapter>
                    4
                </adapter>
                <channel>
                    0
                </channel>
                <id>
                    4
                </id>
                <lun>
                    2
                </lun>
                <hba>
                    qla2xxx
                </hba>
            </BlockDevice>
            <Adapter>
                <host>
                    Host4
                </host>
                <name>
                    qla2xxx
                </name>
                <manufacturer>
                    QLogic HBA Driver
                </manufacturer>
                <id>
                    4
                </id>
            </Adapter>
        </Devlist>
    
  4. Sur l’hôte maître du pool, créez le SR. Spécifiez le chemin d’accès global du périphérique renvoyé dans la propriété <path> de sr-probe. Les PBD sont créés et branchés automatiquement pour chaque hôte du pool.

        xe sr-create host-uuid=valid_uuid \
        content-type=user \
        name-label="Example shared LVM over HBA SR" shared=true \
        device-config:SCSIid=device_scsi_id type=lvmohba
    

Remarque :

Vous pouvez utiliser la fonction XenCenter Repair Storage Repository pour réessayer la création de PBD et le branchement de parties de l’sr-create opération. Cette fonction peut être utile dans les cas où le zonage des LUN était incorrect pour un ou plusieurs hôtes d’un pool lors de la création du SR. Corrigez le zonage des hôtes concernés et utilisez la fonction Réparer le référentiel de stockage au lieu de supprimer et de recréer le SR.

Stockage en bloc partagé GFS2 à provisionnement fin

Le provisionnement fin utilise mieux le stockage disponible en allouant de l’espace de stockage sur disque aux VDI au fur et à mesure que les données sont écrites sur le disque virtuel, plutôt que d’allouer à l’avance la taille virtuelle complète du VDI. Le provisionnement léger vous permet de réduire considérablement l’espace requis sur une baie de stockage partagée, ainsi que le coût total de possession (TCO).

Le provisionnement fin pour le stockage en bloc partagé présente un intérêt particulier dans les cas suivants :

  • Vous voulez une plus grande efficacité de l’espace. Les images sont éparpillées et non épaisse.
  • Vous souhaitez réduire le nombre d’opérations d’E/S par seconde sur votre baie de stockage. Le GFS2 SR est le premier type SR à prendre en charge la mise en cache de lecture sur le stockage en bloc partagé.
  • Vous utilisez une image de base commune pour plusieurs machines virtuelles. Les images des machines virtuelles individuelles utilisent alors généralement encore moins d’espace.
  • Vous utilisez des instantanés. Chaque instantané est une image et chaque image est désormais clairsemée.
  • Votre stockage ne prend pas en charge NFS et ne prend en charge que le stockage par blocs. Si votre stockage prend en charge NFS, nous vous recommandons d’utiliser NFS au lieu de GFS2.
  • Vous souhaitez créer des VDI dont la taille est supérieure à 2 TiB. Le GFS2 SR prend en charge les VDI jusqu’à 16 TiB.

Le type GFS2 partagé représente les disques en tant que système de fichiers créé sur un LUN iSCSI ou HBA. Les VDI stockés sur un GFS2 SR sont stockés au format d’image QCOW2.

Pour utiliser le stockage GFS2 partagé, le pool de ressources Citrix Hypervisor doit être un pool en cluster. Activez le clustering sur votre pool avant de créer un SR GFS2. Pour de plus amples informations, consultez la section Pools en cluster.

Assurez-vous que le multiacheminement de stockage est configuré entre votre pool en cluster et votre GFS2 SR. Pour de plus amples informations, consultez la section Multiacheminement de stockage.

Les SRs de type GFS2 peuvent être créés et gérés à l’aide de l’interface de ligne de commande xe ou de XenCenter.

Contraintes

Le stockage GFS2 partagé présente actuellement les contraintes suivantes :

  • La migration de machines virtuelles avec la migration de stockage en direct n’est pas prise en charge pour les machines virtuelles dont les VDI sont sur un GFS2 SR.
  • Le protocole FCoE n’est pas pris en charge avec les SRs GFS2.
  • TriM/UNMap n’est pas pris en charge sur les SR GFS2.
  • Les mesures de performances ne sont pas disponibles pour les disques et les disques GFS2 sur ces SR.
  • Le suivi des blocs modifiés n’est pas pris en charge pour les VDI stockés sur les SR GFS2.
  • Vous ne pouvez pas exporter des VDI supérieurs à 2 TiB en tant que VHD ou OVA/OVF. Toutefois, vous pouvez exporter des machines virtuelles avec des VDI supérieurs à 2 TiB au format XVA.

Remarque :

Les opérations sur les SRS GFS2 peuvent être bloquées si vous avez un conflit d’adresses IP (plusieurs hôtes ayant la même adresse IP) sur votre réseau de clustering impliquant au moins un hôte avec le clustering activé. Dans ce cas, les hôtes ne clôturent pas. Pour résoudre ce problème, résolvez le conflit d’adresse IP.

Créez un GFS2 partagé sur iSCSI SR à l’aide de l’initiateur iSCSI Software

Vous pouvez créer GFS2 sur des SRs iSCSI à l’aide de XenCenter. Pour plus d’informations, reportez-vous à Stockage iSCSI logiciel dans la documentation produit XenCenter.

Vous pouvez également utiliser l’interface de ligne de commande xe pour créer un GFS2 sur iSCSI SR.

Paramètres de configuration du périphérique pour les SR GFS2 :

Nom du paramètre Description Obligatoire ?
provider Implémentation du fournisseur de blocs. Dans ce cas, iscsi. Oui
target Adresse IP ou nom d’hôte du serveur de fichiers iSCSI qui héberge Oui
targetIQN La cible IQN du serveur de fichiers iSCSI qui héberge la SR Oui
SCSIid ID SCSI de périphérique Oui

Vous pouvez trouver les valeurs à utiliser pour ces paramètres à l’aide de laxe sr-probe-ext commande.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Commencez par exécuter la commande suivante :

    xe sr-probe-ext type=gfs2 device-config:provider=iscsi
    

    La sortie de la commande vous invite à fournir des paramètres supplémentaires et donne une liste de valeurs possibles à chaque étape.

  2. Répétez la commande en ajoutant de nouveaux paramètres à chaque fois.

  3. Lorsque la sortie de la commande commence par The following SRs were found:, vous pouvez utiliser les paramètres device-config que vous avez spécifiés pour localiser le SR lors de l’exécution de la commande xe sr-create.

Pour créer un GFS2 SR partagé sur une LUN spécifique d’une cible iSCSI, exécutez la commande suivante sur un serveur de votre pool en cluster :

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
   device-config:provider=iscsi device-config:targetIQN=target_iqns \
   device-config:target=portal_address device-config:SCSIid=scsci_id

Si la cible iSCSI n’est pas accessible pendant le montage des systèmes de fichiers GFS2, certains hôtes du pool en cluster risquent de se fermer.

Pour plus d’informations sur l’utilisation des SRs iSCSI, reportez-vous à la section Prise en charge des logiciels iSCSI.

Créer un GFS2 partagé sur HBA SR

Vous pouvez créer GFS2 sur HBA SRs à l’aide de XenCenter. Pour plus d’informations, reportez-vous à Stockage HBA matériel dans la documentation produit XenCenter.

Vous pouvez également utiliser l’interface de ligne de commande xe pour créer un GFS2 sur HBA SR.

Paramètres de configuration du périphérique pour les SR GFS2 :

Nom du paramètre Description Obligatoire ?
provider Implémentation du fournisseur de blocs. Dans ce cas, hba. Oui
SCSIid ID SCSI de périphérique Oui

Vous pouvez trouver les valeurs à utiliser pour le paramètre ScSiID à l’aide de laxe sr-probe-ext commande.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Commencez par exécuter la commande suivante :

    xe sr-probe-ext type=gfs2 device-config:provider=hba
    

    La sortie de la commande vous invite à fournir des paramètres supplémentaires et donne une liste de valeurs possibles à chaque étape.

  2. Répétez la commande en ajoutant de nouveaux paramètres à chaque fois.

  3. Lorsque la sortie de la commande commence par The following SRs were found:, vous pouvez utiliser les paramètres device-config que vous avez spécifiés pour localiser le SR lors de l’exécution de la commande xe sr-create.

Pour créer un GFS2 SR partagé sur une LUN spécifique d’une cible HBA, exécutez la commande suivante sur un serveur de votre pool en cluster :

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
  device-config:provider=hba device-config:SCSIid=device_scsi_id

Pour plus d’informations sur l’utilisation des HBA SRs, reportez-vous à la section Adaptateurs de bus hôte matériel.

NFS et PME

Les partages sur les serveurs NFS (qui prennent en charge NFSv4 ou NFSv3) ou sur les serveurs SMB (qui prennent en charge SMB 3.0) peuvent être immédiatement utilisés en tant que SR pour les disques virtuels. Les VDI sont stockés au format Microsoft VHD uniquement. En outre, comme ces SR peuvent être partagées, les VDI stockés sur les SR partagées permettent :

  • VM à démarrer sur n’importe quel serveur Citrix Hypervisor dans un pool de ressources

  • Migrer une machine virtuelle entre des serveurs Citrix Hypervisor dans un pool de ressources à l’aide d’une migration en direct (sans interruption notable)

Important :

  • La prise en charge de SMB 3.0 est limitée à la possibilité de se connecter à un partage à l’aide du protocole 3.0. Les fonctionnalités supplémentaires telles que le basculement transparent dépendent de la disponibilité des fonctionnalités dans le noyau Linux en amont et ne sont pas prises en charge dans Citrix Hypervisor 8.0.
  • Pour NFSv4, seul le type d’authentificationAUTH_SYS est pris en charge.
  • Le stockage SMB est disponible pour les clients Citrix Hypervisor Premium Edition ou les clients qui ont accès à Citrix Hypervisor via leur droit Citrix Virtual Apps and Desktops.

Les VDI stockés sur des SR basées sur des fichiers sont finement provisionnés. Le fichier image est alloué lorsque la machine virtuelle écrit des données dans le disque. Cette approche présente l’avantage considérable que les fichiers image VM occupent seulement autant d’espace sur le stockage que nécessaire. Par exemple, si un VDI de 100 Go est alloué à une machine virtuelle et qu’un système d’exploitation est installé, le fichier VDI reflète uniquement la taille des données du système d’exploitation écrites sur le disque plutôt que la totalité des 100 Go.

Les fichiers VHD peuvent également être chaînés, ce qui permet à deux VDI de partager des données communes. Dans les cas où une machine virtuelle basée sur un fichier est clonée, les machines virtuelles résultantes partagent les données sur disque communes au moment du clonage. Chaque machine virtuelle procède à ses propres modifications dans une version de copie sur écriture isolée du VDI. Cette fonctionnalité permet de cloner rapidement les machines virtuelles basées sur des fichiers à partir de modèles, ce qui facilite le provisionnement et le déploiement très rapides de nouvelles machines virtuelles.

Remarque :

La longueur maximale prise en charge des chaînes VHD est de 30.

Les mises en œuvre de SRS et de VHD basées sur des fichiers dans Citrix Hypervisor supposent qu’elles ont un contrôle total sur le répertoire SR sur le serveur de fichiers. Les administrateurs ne doivent pas modifier le contenu du répertoire SR, car cette action risque d’endommager le contenu des VDI.

Citrix Hypervisor a été réglé pour un stockage de classe entreprise qui utilise la RAM non volatile pour fournir des accusés de réception rapides des demandes d’écriture tout en maintenant un haut degré de protection des données contre les défaillances. Citrix Hypervisor a été largement testé contre le stockage Network Appliance FAS2020 et FAS3210, à l’aide de Data OnTap 7.3 et 8.1

Avertissement :

Étant donné que les VDI sur des SRS basés sur des fichiers sont créés en tant que provisionnés en fonction des besoins, les administrateurs doivent s’assurer que les SRS basés sur des fichiers disposent d’un espace disque suffisant pour tous les VDI requis. Les serveurs Citrix Hypervisor n’imposent pas la présence de l’espace requis pour les VDI sur les SRS basés sur des fichiers.

Créer un NFS SR (NFS) partagé

Pour créer un SR NFS, vous devez fournir le nom d’hôte ou l’adresse IP du serveur NFS. Vous pouvez créer le SR sur n’importe quel chemin de destination valide ; utilisez lasr-probe commande pour afficher la liste des chemins de destination valides exportés par le serveur.

Dans les scénarios où Citrix Hypervisor est utilisé avec un stockage inférieur, il attend avec prudence que toutes les écritures soient accusées de réception avant de transmettre des accusés de réception aux machines virtuelles. Cette approche entraîne un coût de performance notable et peut être résolue en définissant le stockage de manière à présenter le point de montage SR comme une exportation en mode asynchrone. Les exportations asynchrones reconnaissent les écritures qui ne sont pas réellement sur le disque. Considérez soigneusement les risques de défaillance dans ces situations.

Remarque :

Le serveur NFS doit être configuré pour exporter le chemin spécifié vers tous les serveurs du pool. Si cette configuration n’est pas effectuée, la création de la SR et le branchement de l’enregistrement PBD échouent.

L’implémentation NFS Citrix Hypervisor utilise TCP par défaut. Si votre situation le permet, vous pouvez configurer l’implémentation pour utiliser UDP dans des scénarios où il peut y avoir un avantage de performances. Pour effectuer cette configuration, spécifiez ledevice-config paramètre lors de la création d’un SRuseUDP=true .

Paramètres de configuration du périphérique pour les SR NFS :

Nom du paramètre Description Obligatoire ?
server Adresse IP ou nom d’hôte du serveur NFS Oui
serverpath Chemin, y compris le point de montage NFS, vers le serveur NFS qui héberge le serveur SR Oui

Par exemple, pour créer une SR NFS partagée sur192.168.1.10:/export1, utilisez la commande suivante :

    xe sr-create content-type=user \
    name-label="shared NFS SR" shared=true \
    device-config:server=192.168.1.10 device-config:serverpath=/export1 type=nfs \
    nfsversion="3", "4"

Pour créer un SR NFS non partagé, exécutez la commande suivante :

    xe sr-create host-uuid=host_uuid content-type=user \
    name-label="Non-shared NFS SR" \
    device-config:server=192.168.1.10 device-config:serverpath=/export1 type=nfs \
    nfsversion="3", "4"

Créer un SR SMB partagé (SMB)

Pour créer un SR SMB, indiquez le nom d’hôte ou l’adresse IP du serveur SMB, le chemin d’accès complet du partage exporté et les informations d’identification appropriées.

Remarque :

SMB SR a été testé sur le stockage Network Appliance exécutant OnTap 8.3 et Windows Server 2012 R2.

Paramètres de configuration du périphérique pour les SR SMB :

Nom du paramètre Description Obligatoire ?
server Chemin complet de partage sur le serveur Oui
username Compte utilisateur avec accès RW pour partager Facultatif
password Mot de passe du compte utilisateur Facultatif

Par exemple, pour créer une SR SMB partagée sur192.168.1.10:/share1, utilisez la commande suivante :

    xe sr-create content-type=user \
    name-label="Example shared SMB SR" shared=true \
    device-config:server=//192.168.1.10/share1 \
    device-config:username=valid_username device-config:password=valid_password type=smb

Pour créer une SR SMB non partagée, exécutez la commande suivante :

    xe sr-create host-uuid=host_uuid content-type=user \
    name-label="Non-shared SMB SR" \
    device-config:server=//192.168.1.10/share1 \
    device-config:username=valid_username device-config:password=valid_password type=smb

Remarque :

Lors de l’exécution de la commande sr-create, vous pouvez utiliser l’argument device-config:password_secret au lieu de spécifier le mot de passe sur la ligne de commande. Pour de plus amples informations, consultez la section Secrets.

HBA LVM sur matériel

Le type d’adaptateur HBA LVM sur matériel représente les disques sous forme de disques virtuels sur des volumes logiques au sein d’un groupe de volumes créé sur un LUN HBA qui fournit, par exemple, une prise en charge matérielle iSCSI ou FC.

Les serveurs Citrix Hypervisor prennent en charge les SAN Fibre Channel via les adaptateurs HBA (HBA) Emulex ou QLogic. Toute configuration Fibre Channel requise pour exposer un LUN Fibre Channel à l’hôte doit être effectuée manuellement. Cette configuration inclut les périphériques de stockage, les périphériques réseau et l’adaptateur HBA au sein du serveur Citrix Hypervisor. Une fois la configuration FC terminée, l’adaptateur HBA expose un périphérique SCSI soutenu par le LUN FC à l’hôte. Le périphérique SCSI peut ensuite être utilisé pour accéder au LUN FC comme s’il s’agissait d’un périphérique SCSI connecté localement.

Utilisez lasr-probe commande pour répertorier les périphériques SCSI basés sur le LUN présents sur l’hôte. Cette commande force une analyse pour les nouveaux périphériques SCSI basés sur le LUN. La valeur de chemin renvoyée parsr-probe pour un périphérique SCSI basé sur le LUN est cohérente sur tous les hôtes ayant accès au LUN. Par conséquent, cette valeur doit être utilisée lors de la création de SR partagés accessibles par tous les hôtes d’un pool de ressources.

Les mêmes fonctionnalités s’appliquent aux adaptateurs HBA iSCSI QLogic.

Créer des référentiels de stockage/fr-fr/citrix-hypervisor/storage/manage.html#create-storage-repositories[()]Pour plus d’informations sur la création de SRs FC et iSCSI basés sur HBA partagés, reportez-vous à la section.

Remarque :

La prise en charge de Citrix Hypervisor pour Fibre Channel ne prend pas en charge le mappage direct d’une LUN vers une machine virtuelle. Les LUN basés sur HBA doivent être mappés à l’hôte et spécifiés pour une utilisation dans un SR. Les VDI de la SR sont exposés aux machines virtuelles en tant que périphériques de bloc standard.