Formats de référentiel de stockage

Vous pouvez utiliser l’Assistant Nouveau référentiel de stockage dans HASH (0x2e6c8e8) pour créer des référentiels de stockage. L’Assistant vous guide à travers les étapes de configuration. Vous pouvez également utiliser l’interface de ligne de commande et lasr-create commande. Lasr-create commande crée un SR sur le substrat de stockage (détruisant potentiellement toutes les données existantes). Il crée également l’objet API SR et un enregistrement PBD correspondant, permettant aux machines virtuelles d’utiliser le stockage. Lors de la création réussie du SR, le PBD est automatiquement branché. Si l’shared=true indicateur SR est défini, un enregistrement PBD est créé et branché pour chaque HASH (0x2e68218) dans le pool de ressources.

Si vous créez un SR pour le stockage IP (iSCSI ou NFS), vous pouvez configurer l’un des éléments suivants en tant que réseau de stockage : la carte réseau qui gère le trafic de gestion ou une nouvelle carte réseau pour le trafic de stockage. Pour attribuer une adresse IP à une carte réseau, reportez-vous à la sectionConfigurer une carte réseau de stockage dédiée.

Tous les types SR HASH (0x2c1a078) prennent en charge le redimensionnement VDI, le clonage rapide et l’instantané. Les SR basées sur le type LVM SR (local, iSCSI ou HBA) fournissent un provisionnement léger pour les nœuds parents instantanés et masqués. Les autres types SR (EXT3, NFS, GFS2) prennent en charge le provisionnement fin complet, y compris pour les disques virtuels actifs.

Avertissement :

Lorsque les VDI VHD ne sont pas attachés à une machine virtuelle, par exemple pour un instantané VDI, ils sont stockés en tant que provisionnés finement par défaut. Si vous tentez de reconnecter le VDI, assurez-vous qu’il y a suffisamment d’espace disque disponible pour que le VDI soit provisionné de manière épaisse. Les clones VDI sont provisionnés de manière épaisse.

Les tailles VDI maximales prises en charge sont les suivantes :

Format du référentiel de stockage Taille maximale de VDI
EXT3 2 TiB
LVM 2 TiB
NFS 2 TiB
LvmofCoe 2 TiB
LvMoiscsi 2 TiB
Lvmohba 2 TiB
GFS2 (avec iSCSI ou HBA) 16 TiB

LVM locale

Le type LVM local présente des disques au sein d’un groupe de volumes attaché localement.

Par défaut, HASH (0x2c1a078) utilise le disque local sur l’hôte physique sur lequel il est installé. Le gestionnaire de volumes logiques (LVM) Linux est utilisé pour gérer le stockage de machines virtuelles. Un VDI est implémenté au format VHD dans un volume logique LVM de la taille spécifiée.

Considérations sur les performances LVM

La fonctionnalité de clone instantané et de clone rapide pour les SR basées sur LVM est associée à une surcharge de performances inhérente. Lorsque des performances optimales sont requises, HASH (0x2c1a078) prend en charge la création de VDI au format brut en plus du format VHD par défaut. La fonctionnalité de snapshot HASH (0x2c1a078) n’est pas prise en charge sur les VDI bruts.

Les snapshots non transportables qui utilisent le fournisseur VSS Windows par défaut fonctionnent sur tout type de VDI.

Avertissement :

n’essayez pas d’instantaner une machine virtuelle avectype=rawdes disques attachés. Cette action peut entraîner la création d’un instantané partiel. Dans ce cas, vous pouvez identifier les VDI de snapshot orphelins en cochant lesnapshot-of champ, puis en les supprimant.

Création d’une SR LVM locale

Une SR LVM est créée par défaut lors de l’installation de l’hôte.

Les paramètres de configuration de périphérique pour les SR LVM sont les suivants :

Nom du paramètre Description Obligatoire ?
Appareil Nom du périphérique sur l’hôte local à utiliser pour la SR Oui

Pour créer une SR LVM locale sur/dev/sdb, utilisez la commande suivante.

    xe sr-create host-uuid=valid_uuid content-type=user \
    name-label="Example Local LVM SR" shared=false \
    device-config:device=/dev/sdb type=lvm

EXT3 local

L’utilisation de EXT3 permet le provisionnement léger sur le stockage local. Toutefois, le type de référentiel de stockage par défaut est LVM car il offre des performances d’écriture cohérentes et empêche le stockage de trop commit. Si vous utilisez EXT3, vous pouvez voir des performances réduites dans les cas suivants :

  • Lors de l’exécution d’opérations de cycle de vie des machines virtuelles telles que la création et la suspendre/reprise de la machine virtuelle
  • Lors de la création de fichiers volumineux à partir de la machine virtuelle

Les SRs EXT de disque local doivent être configurés à l’aide de l’interface de ligne de commande HASH (0x2c1a078).

Création d’un EXT3 SR local (ext)

Paramètres de configuration du périphérique pour les SR ext :

Nom du paramètre Description Obligatoire ?
Appareil Nom du périphérique sur l’hôte local à utiliser pour la SR Oui

Pour créer un poste SR local sur/dev/sdb, utilisez la commande suivante :

    xe sr-create host-uuid=valid_uuid content-type=user \
       name-label="Example Local EXT3 SR" shared=false \
       device-config:device=/dev/sdb type=ext

udev

Leudev type représente les périphériques branchés à l’aide du gestionnaire deudev périphériques en tant que VDI.

HASH (0x2c1a078) a deux SR de typeudev qui représentent un stockage amovible. La première concerne le disque de CD ou de DVD dans le lecteur de CD ou de DVD-ROM physique du serveur HASH (0x2e68218). L’autre concerne un périphérique USB branché sur un port USB du serveur HASH (0x2e68218). Les VDI qui représentent les médias vont et viennent au fur et à mesure que des disques ou des clés USB sont insérés et retirés.

ISO

Le type ISO gère les images CD stockées sous forme de fichiers au format ISO. Ce type SR est utile pour créer des bibliothèques ISO partagées. Pour les référentiels de stockage qui stockent une bibliothèque d’ISO, lecontent-type paramètre doit être défini suriso .

Par exemple :

    xe sr-create host-uuid=valid_uuid content-type=iso \
      type=iso name-label="Example ISO SR" \
      device-config:location=nfs server:path

Nous vous recommandons d’utiliser SMB version 3.0 pour installer ISO SR sur le serveur de fichiers Windows. La version 3.0 est sélectionnée par défaut car elle est plus sûre et robuste que SMB version 1.0. Toutefois, vous pouvez installer ISO SR à l’aide de SMB version 1.0 à l’aide de la commande suivante :

     xe sr-create content-type=iso type=iso shared=true device-config:location=valid location
     device-config:username=username device-config:cifspassword=password
     device-config:type=cifs device-config:vers=Choose either 1.0 or 3.0 name-label="Example ISO SR"

Note :

Lors de l’exécution de la commande sr-create, vous pouvez utiliser l’argument device-config:cifspassword_secret au lieu de spécifier le mot de passe sur la ligne de commande. Pour plus d’informations, reportez-vous à la section Secrets.

Prise en charge des logiciels iSCSI

HASH (0x2c1a078) prend en charge les SRs partagés sur les LUN iSCSI. iSCSI est pris en charge à l’aide de l’initiateur iSCSI logiciel Open-iSCSI ou à l’aide d’un adaptateur de bus hôte iSCSI pris en charge. Les étapes d’utilisation des adaptateurs HBA iSCSI sont identiques à celles des adaptateurs HBA Fibre Channel. Les deux séries d’étapes sont décrites à la sectionCréer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR.

La prise en charge iSCSI partagée à l’aide de l’initiateur iSCSI logiciel est implémentée sur la base du gestionnaire de volumes Linux (LVM). Cette fonctionnalité offre les mêmes avantages en termes de performances que les VDI LVM dans le cas du disque local. Les SR iSCSI partagées utilisant l’initiateur hôte logiciel peuvent prendre en charge l’agilité de la machine virtuelle à l’aide de la migration en direct : les machines virtuelles peuvent être démarrées sur n’importe quel serveur HASH (0x2e68218) d’un pool de ressources et migrées entre elles sans interruption notable.

Les SR iSCSI utilisent la LUN entière spécifiée au moment de la création et ne peuvent pas s’étendre sur plus d’un LUN. La prise en charge CHAP est assurée pour l’authentification du client, à la fois pendant l’initialisation du chemin de données et les phases de découverte des LUN.

Note :

La taille de bloc d’un LUN iSCSI doit être de 512 octets.

Configuration iSCSI du serveur HASH (0x2e68218)

Tous les initiateurs et cibles iSCSI doivent avoir un nom unique pour s’assurer qu’ils peuvent être identifiés de manière unique sur le réseau. Un initiateur a une adresse d’initiateur iSCSI et une cible a une adresse de cible iSCSI. Collectivement, ces noms sont appelés Noms qualifiés iSCSI ou IQN.

Les serveurs HASH (0x2e68218) prennent en charge un seul initiateur iSCSI qui est automatiquement créé et configuré avec un IQN aléatoire lors de l’installation de l’hôte. L’initiateur unique peut être utilisé pour se connecter simultanément à plusieurs cibles iSCSI.

Les cibles iSCSI fournissent généralement le contrôle d’accès à l’aide des listes IQN des initiateurs iSCSI. Toutes les cibles/LUN iSCSI auxquelles votre serveur HASH (0x2e68218) accède doivent être configurées pour autoriser l’accès par l’IQN de l’initiateur de l’hôte. De même, les cibles/LUN à utiliser en tant que SR iSCSI partagés doivent être configurés pour autoriser l’accès par tous les IQN hôtes du pool de ressources.

Note :

Les cibles iSCSI qui ne fournissent pas de contrôle d’accès par défaut limitent généralement l’accès aux LUN à un seul initiateur pour garantir l’intégrité des données. Si un LUN iSCSI est utilisé comme SR partagé sur plusieurs serveurs d’un pool, assurez-vous que l’accès à plusieurs initiateurs est activé pour le LUN spécifié.

La valeur IQN du serveur HASH (0x2e68218) peut être ajustée à l’aide de HASH (0x2e6c8e8) ou à l’aide de l’interface de ligne de commande avec la commande suivante lors de l’utilisation de l’initiateur logiciel iSCSI :

    xe host-param-set uuid=valid_host_id other-config:iscsi_iqn=new_initiator_iqn

Avertissement :

  • Chaque cible iSCSI et chaque initiateur doivent avoir un IQN unique. Si un identifiant IQN non unique est utilisé, des données endommagées ou un refus d’accès aux LUN peuvent se produire.
  • Ne modifiez pas l’IQN du serveur HASH (0x2e68218) avec les SR iSCSI attachés. Cela peut entraîner des défaillances de connexion à de nouvelles cibles ou à des SR existants.

Stockage FCoE logiciel

Software FCoE fournit un cadre standard auquel les fournisseurs de matériel peuvent brancher leur carte réseau compatible FCOE et bénéficier des mêmes avantages qu’un FCoE basé sur le matériel. Cette fonctionnalité élimine la nécessité d’utiliser des adaptateurs HBA coûteux.

Avant de créer un stockage FCoE logiciel, effectuez manuellement la configuration requise pour exposer un LUN à l’hôte. Cette configuration inclut la configuration de la structure FCoE et l’allocation de LUN au nom public du monde entier (PWWN) de votre SAN. Une fois cette configuration terminée, le LUN disponible est installé sur le CNA de l’hôte en tant que périphérique SCSI. Le périphérique SCSI peut ensuite être utilisé pour accéder au LUN comme s’il s’agissait d’un périphérique SCSI connecté localement. Pour plus d’informations sur la configuration du commutateur physique et de la baie pour prendre en charge FCoE, consultez la documentation fournie par le fournisseur.

Note :

Le logiciel FCoE peut être utilisé avec Open vSwitch et le pont Linux comme back-end réseau.

Créer un logiciel FCoE SR

Avant de créer un logiciel FCoE SR, les clients doivent s’assurer que des cartes réseau compatibles FCOE sont connectées à l’hôte.

Les paramètres de configuration du périphérique pour les SR FCoE sont les suivants :

Nom du paramètre Description Obligatoire ?
SCSIid ID de bus SCSI du LUN de destination Oui

Exécutez la commande suivante pour créer un SR FCoE partagé :

    xe sr-create type=lvmofcoe \
    name-label="FCoE SR" shared=true device-config:SCSIid=SCSI_id

Adaptateurs de bus hôte matériels (HBA)

Cette section couvre diverses opérations nécessaires à la gestion des adaptateurs HBA SAS, Fibre Channel et iSCSI.

Exemple de configuration de l’adaptateur HBA iSCSI QLogic

Pour plus d’informations sur la configuration des adaptateurs HBA Fibre Channel et iSCSI QLogic, consultez leCaviumsite Web.

Une fois l’adaptateur HBA installé physiquement sur le serveur HASH (0x2e68218), procédez comme suit pour configurer l’adaptateur HBA :

  1. Définissez la configuration réseau IP pour le HBA. Cet exemple suppose le port 0 DHCP et HBA. Spécifiez les valeurs appropriées si vous utilisez l’adressage IP statique ou un adaptateur HBA multiport.

    /opt/QLogic_Corporation/SANsurferiCLI/iscli -ipdhcp 0
    
  2. Ajoutez une cible iSCSI persistante au port 0 du HBA.

    /opt/QLogic_Corporation/SANsurferiCLI/iscli -pa 0 iscsi_target_ip_address
    
  3. Utilisez lasr-probe commande xe pour forcer une nouvelle analyse du contrôleur HBA et afficher les LUN disponibles. Pour plus d’informations, consultez Sonde un SR et Créer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR.

Supprimer les entrées de périphériques SAS, FC ou iSCSI basés sur HBA

Note :

Cette étape n’est pas requise. Nous recommandons que seuls les utilisateurs puissants effectuent ce processus si nécessaire.

Chaque LUN basé sur HBA a une entrée de chemin global correspondant/dev/disk/by-scsibus sous le format<SCSIid>-<adapter>:<bus>:<target>:<lun> et un chemin de périphérique standard sous/dev . Pour supprimer les entrées de périphérique pour les LUN qui ne sont plus utilisées en tant que SR, procédez comme suit :

  1. Utilisezsr-forget ousr-destroy selon le cas pour supprimer le SR de la base de données du serveur HASH (0x2e68218). Voir Supprimer les SR pour plus de détails.

  2. Supprimez la configuration de zonage dans le SAN pour le LUN souhaité sur l’hôte souhaité.

  3. Utilisez lasr-probe commande pour déterminer les valeurs ADAPTER, BUS, TARGET et LUN correspondant au LUN à supprimer. Pour plus d’informations,Sonde un SR.

  4. Supprimez les entrées du périphérique avec la commande suivante :

    echo "1" > /sys/class/scsi_device/adapter:bus:target:lun/device/delete
    

Avertissement :

Assurez-vous que vous êtes certain du LUN que vous supprimez. La suppression accidentelle d’un LUN requis pour le fonctionnement de l’hôte, comme le périphérique de démarrage ou le périphérique racine, rend l’hôte inutilisable.

Stockage LVM partagé

Le type LVM partagé représente les disques en tant que volumes logiques au sein d’un groupe de volumes créé sur un LUN iSCSI (FC ou SAS).

Note :

La taille de bloc d’un LUN iSCSI doit être de 512 octets.

Créez une LVM partagée sur iSCSI SR à l’aide de l’initiateur iSCSI Software

Paramètres de configuration de périphérique pour les SR LVMoisCSI :

Nom du paramètre Description Obligatoire ?
target Adresse IP ou nom d’hôte du serveur de fichiers iSCSI qui héberge le SR Oui
targetIQN Adresse cible IQN du serveur de fichiers iSCSI qui héberge la SR Oui
SCSIid ID de bus SCSI du LUN de destination Oui
chapuser Le nom d’utilisateur à utiliser pour l’authentification CHAP Non
chappassword Le mot de passe à utiliser pour l’authentification CHAP Non
port Numéro de port réseau sur lequel interroger la cible Non
usediscoverynumber Index d’enregistrement iSCSI spécifique à utiliser Non
incoming_chapuser Nom d’utilisateur utilisé par le filtre iSCSI pour s’authentifier sur l’hôte Non
incoming_chappassword Mot de passe utilisé par le filtre iSCSI pour s’authentifier sur l’hôte Non

Pour créer une SR LvMoisCSI partagée sur un LUN spécifique d’une cible iSCSI, utilisez la commande suivante.

    xe sr-create host-uuid=valid_uuid content-type=user \
    name-label="Example shared LVM over iSCSI SR" shared=true \
    device-config:target=target_ip= device-config:targetIQN=target_iqn= \
    device-config:SCSIid=scsci_id \
    type=lvmoiscsi

Créer un adaptateur HBA LVM partagé sur Fibre Channel / Fibre Channel sur Ethernet / iSCSI ou SAS SR

Les SR de type LvmoHba peuvent être créés et gérés à l’aide de la CLI xe ou HASH (0x2e6c8e8).

Paramètres de configuration du périphérique pour les SR LvMOHBA :

Nom du paramètre Description Obligatoire ?
SCSIid ID SCSI de périphérique Oui

Pour créer une SR LvmoHba partagée, effectuez les opérations suivantes sur chaque hôte du pool :

  1. Zone dans un ou plusieurs LUN vers chaque serveur HASH (0x2e68218) du pool. Ce processus est très spécifique à l’équipement SAN utilisé. Pour plus d’informations, consultez la documentation de votre SAN.

  2. Si nécessaire, utilisez l’interface de ligne de commande HBA incluse dans le serveur HASH (0x2e68218) pour configurer l’adaptateur HBA :

      • Emulex./bin/sbin/ocmanager
    • QLogic FC :/opt/QLogic_Corporation/SANsurferCLI

    • QLogic iSCSI :/opt/QLogic_Corporation/SANsurferiCLI

    Pour obtenir un exemple de configuration de l’adaptateur HBA iSCSI QLogic, voir Adaptateurs de bus hôte matériel (HBA) dans la section précédente. Pour plus d’informations sur les adaptateurs HBA Fibre Channel et iSCSI, consultez lesBroadcomsites WebCaviumet.

  3. Utilisez la commande sr-probe pour déterminer le chemin global du périphérique du LUN HBA. La commande sr-probe force une nouvelle analyse des adaptateurs HBA installés dans le système pour détecter les nouveaux LUN qui ont été zonés à l’hôte. La commande renvoie une liste de propriétés pour chaque LUN trouvé. Spécifiez le paramètre host-uuid pour vous assurer que la sonde se produit sur l’hôte souhaité.

    Le chemin global du périphérique retourné en tant que propriété <path> est commun à tous les hôtes du pool. Par conséquent, ce chemin doit être utilisé comme valeur pour le paramètre device-config:device lors de la création du SR.

    Si plusieurs LUN sont présentes, utilisez le fournisseur, la taille du LUN, le numéro de série du LUN ou l’ID SCSI de la<path> propriété pour identifier le LUN souhaité.

        xe sr-probe type=lvmohba \
        host-uuid=1212c7b3-f333-4a8d-a6fb-80c5b79b5b31
        Error code: SR_BACKEND_FAILURE_90
        Error parameters: , The request is missing the device parameter, \
        <?xml version="1.0" ?>
        <Devlist>
            <BlockDevice>
                <path>
                    /dev/disk/by-id/scsi-360a9800068666949673446387665336f
                </path>
                <vendor>
                    HITACHI
                </vendor>
                <serial>
                    730157980002
                </serial>
                <size>
                    80530636800
                </size>
                <adapter>
                    4
                </adapter>
                <channel>
                    0
                </channel>
                <id>
                    4
                </id>
                <lun>
                    2
                </lun>
                <hba>
                    qla2xxx
                </hba>
            </BlockDevice>
            <Adapter>
                <host>
                    Host4
                </host>
                <name>
                    qla2xxx
                </name>
                <manufacturer>
                    QLogic HBA Driver
                </manufacturer>
                <id>
                    4
                </id>
            </Adapter>
        </Devlist>
    
  4. Sur l’hôte maître du pool, créez le SR. Spécifiez le chemin d’accès global du périphérique renvoyé dans la propriété <path> de sr-probe. Les PBD sont créés et branchés automatiquement pour chaque hôte du pool.

        xe sr-create host-uuid=valid_uuid \
        content-type=user \
        name-label="Example shared LVM over HBA SR" shared=true \
        device-config:SCSIid=device_scsi_id type=lvmohba
    

Note :

Vous pouvez utiliser la fonction HASH (0x2e6c8e8) Réparer le référentiel de stockage pour réessayer la création de PBD et le branchement des parties de l’sr-create opération. Cette fonction peut être utile dans les cas où le zonage des LUN était incorrect pour un ou plusieurs hôtes d’un pool lors de la création du SR. Corrigez le zonage des hôtes concernés et utilisez la fonction Réparer le référentiel de stockage au lieu de supprimer et de recréer le SR.

Stockage en bloc partagé GFS2 à provisionnement fin

Le provisionnement fin utilise mieux le stockage disponible en allouant de l’espace de stockage sur disque aux VDI au fur et à mesure que les données sont écrites sur le disque virtuel, plutôt que d’allouer à l’avance la taille virtuelle complète du VDI. Le provisionnement léger vous permet de réduire considérablement l’espace requis sur une baie de stockage partagée, ainsi que le coût total de possession (TCO).

Le provisionnement fin pour le stockage en bloc partagé présente un intérêt particulier dans les cas suivants :

  • Vous voulez une plus grande efficacité de l’espace. Les images sont dispersées et non allouées de façon épaisse.
  • Vous souhaitez réduire le nombre d’opérations d’E/S par seconde sur votre baie de stockage. Le GFS2 SR est le premier type SR à prendre en charge la mise en cache de lecture sur le stockage en bloc partagé.
  • Vous utilisez une image de base commune pour plusieurs machines virtuelles. Les images de machines virtuelles individuelles utilisent alors généralement encore moins d’espace.
  • Vous utilisez des instantanés. Chaque instantané est une image et chaque image est maintenant clairsemée.
  • Votre stockage ne prend pas en charge NFS et ne prend en charge que le stockage en mode bloc. Si votre stockage prend en charge NFS, nous vous recommandons d’utiliser NFS au lieu de GFS2.
  • Vous souhaitez créer des VDI dont la taille est supérieure à 2 TiB. Le GFS2 SR prend en charge les VDI jusqu’à 16 TiB.

Le type GFS2 partagé représente les disques sous la forme d’un système de fichiers créé sur un LUN iSCSI ou HBA. Les VDI stockés sur un GFS2 SR sont stockés au format d’image QCOW2.

Pour utiliser le stockage GFS2 partagé, le pool de ressources HASH (0x2e68218) doit être un pool en cluster. Activez le clustering sur votre pool avant de créer un SR GFS2. Pour plus d’informations, reportez-vous à la section Pools en cluster.

Assurez-vous que le multiacheminement de stockage est configuré entre votre pool en cluster et votre GFS2 SR. Pour plus d’informations, reportez-vous à la section Multiacheminement de stockage.

Les SR de type GFS2 peuvent être créés et gérés à l’aide de la CLI xe ou HASH (0x2e6c8e8).

Contraintes

Le stockage GFS2 partagé présente actuellement les contraintes suivantes :

  • La migration de VM avec la migration en direct du stockage n’est pas prise en charge pour les machines virtuelles dont les VDI sont sur un SR GFS2.
  • Le protocole FCoE n’est pas pris en charge avec les SRs GFS2.
  • TriM/UNMap n’est pas pris en charge sur les SR GFS2.
  • Les mesures de performances ne sont pas disponibles pour les disques et les disques GFS2 sur ces SR.
  • Le suivi des blocs modifiés n’est pas pris en charge pour les VDI stockés sur les SR GFS2.
  • Vous ne pouvez pas exporter des VDI dont la valeur est supérieure à 2 TiB en tant que VHD ou OVA/OVF. Toutefois, vous pouvez exporter des machines virtuelles avec des VDI de plus de 2 TiB au format XVA.

Note :

Les opérations sur les SR GFS2 peuvent être bloquées si vous avez un conflit d’adresse IP (plusieurs hôtes ayant la même adresse IP) sur votre réseau de clustering impliquant au moins un hôte avec clustering activé. Dans ce cas, les hôtes ne s’isolent pas. Pour résoudre ce problème, résolvez le conflit d’adresse IP.

Créez un GFS2 partagé sur iSCSI SR à l’aide de l’initiateur iSCSI Software

Vous pouvez créer GFS2 sur des SR iSCSI à l’aide de XenCenter. Pour plus d’informations, reportez-vous à Stockage iSCSI logiciel dans la documentation produit XenCenter.

Vous pouvez également utiliser l’interface de ligne de commande xe pour créer un GFS2 sur iSCSI SR.

Paramètres de configuration du périphérique pour les SR GFS2 :

Nom du paramètre Description Obligatoire ?
provider Implémentation du fournisseur de blocs. Dans ce cas, iscsi. Oui
target Adresse IP ou nom d’hôte du serveur de fichiers iSCSI qui héberge Oui
targetIQN La cible IQN du serveur de fichiers iSCSI qui héberge la SR Oui
SCSIid ID SCSI de périphérique Oui

Vous pouvez trouver les valeurs à utiliser pour ces paramètres à l’aide de laxe sr-probe-ext commande.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Commencez par exécuter la commande suivante :

    xe sr-probe-ext type=gfs2 device-config:provider=iscsi
    

    La sortie de la commande vous invite à fournir des paramètres supplémentaires et donne une liste des valeurs possibles à chaque étape.

  2. Répétez la commande, en ajoutant de nouveaux paramètres à chaque fois.

  3. Lorsque la sortie de la commande commence par The following SRs were found:, vous pouvez utiliser les paramètres device-config que vous avez spécifiés pour localiser le SR lors de l’exécution de la commande xe sr-create.

Pour créer un SR GFS2 partagé sur un LUN spécifique d’une cible iSCSI, exécutez la commande suivante sur un serveur de votre pool en cluster :

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
   device-config:provider=iscsi device-config:targetIQN=target_iqns \
   device-config:target=portal_address device-config:SCSIid=scsci_id

Si la cible iSCSI n’est pas accessible pendant le montage des systèmes de fichiers GFS2, certains hôtes du pool en cluster risquent de se fermer.

Pour plus d’informations sur l’utilisation des SR iSCSI, reportez-vous à la sectionPrise en charge des logiciels iSCSI.

Créer un GFS2 partagé sur HBA SR

Vous pouvez créer GFS2 sur des SRs HBA à l’aide de XenCenter. Pour plus d’informations, reportez-vous à Stockage HBA matériel dans la documentation produit XenCenter.

Vous pouvez également utiliser l’interface de ligne de commande xe pour créer un GFS2 sur HBA SR.

Paramètres de configuration du périphérique pour les SR GFS2 :

Nom du paramètre Description Obligatoire ?
provider Implémentation du fournisseur de blocs. Dans ce cas, hba. Oui
SCSIid ID SCSI de périphérique Oui

Vous pouvez trouver les valeurs à utiliser pour le paramètre ScSIId à l’aide de laxe sr-probe-ext commande.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Commencez par exécuter la commande suivante :

    xe sr-probe-ext type=gfs2 device-config:provider=hba
    

    La sortie de la commande vous invite à fournir des paramètres supplémentaires et donne une liste des valeurs possibles à chaque étape.

  2. Répétez la commande, en ajoutant de nouveaux paramètres à chaque fois.

  3. Lorsque la sortie de la commande commence par The following SRs were found:, vous pouvez utiliser les paramètres device-config que vous avez spécifiés pour localiser le SR lors de l’exécution de la commande xe sr-create.

Pour créer un SR GFS2 partagé sur un LUN spécifique d’une cible HBA, exécutez la commande suivante sur un serveur de votre pool en cluster :

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
  device-config:provider=hba device-config:SCSIid=device_scsi_id

Pour plus d’informations sur l’utilisation des SRs HBA, reportez-vous à la sectionAdaptateurs de bus hôte matériel.

NFS et PME

Les partages sur les serveurs NFS (qui prennent en charge NFSv4 ou NFSv3) ou sur les serveurs SMB (qui prennent en charge SMB 3.0) peuvent être immédiatement utilisés en tant que SR pour les disques virtuels. Les VDI sont stockés au format Microsoft VHD uniquement. En outre, comme ces SR peuvent être partagées, les VDI stockés sur les SR partagées permettent :

  • Les machines virtuelles à démarrer sur tous les serveurs HASH (0x2e68218) dans un pool de ressources

  • VM migrer entre des serveurs HASH (0x2e68218) dans un pool de ressources à l’aide de la migration en direct (sans temps d’arrêt notable)

Important :

  • La prise en charge de SMB 3.0 est limitée à la possibilité de se connecter à un partage à l’aide du protocole 3.0. Les fonctionnalités supplémentaires telles que Transparent Failover dépendent de la disponibilité des fonctionnalités dans le noyau Linux en amont et ne sont pas prises en charge dans HASH (0x2c1a078).
  • Pour NFSv4, seul le type d’authentificationAUTH_SYS est pris en charge.
  • Le stockage SMB est disponible pour les clients HASH (0x2c1a078) HASH (0x2e72eb8) ou les clients qui ont accès à HASH (0x2c1a078) via leur droit Citrix Virtual Apps and Desktops.

Les VDI stockés sur des SR basées sur des fichiers sont finement provisionnés. Le fichier image est alloué lorsque la machine virtuelle écrit des données dans le disque. Cette approche présente l’avantage considérable que les fichiers image VM occupent seulement autant d’espace sur le stockage que nécessaire. Par exemple, si un VDI de 100 Go est alloué à une machine virtuelle et qu’un système d’exploitation est installé, le fichier VDI reflète uniquement la taille des données du système d’exploitation écrites sur le disque plutôt que la totalité des 100 Go.

Les fichiers VHD peuvent également être chaînés, ce qui permet à deux VDI de partager des données communes. Dans les cas où une machine virtuelle basée sur un fichier est clonée, les machines virtuelles résultantes partagent les données sur disque communes au moment du clonage. Chaque machine virtuelle procède à ses propres modifications dans une version de copie sur écriture isolée du VDI. Cette fonctionnalité permet de cloner rapidement les machines virtuelles basées sur des fichiers à partir de modèles, ce qui facilite le provisionnement et le déploiement très rapides de nouvelles machines virtuelles.

Remarque :

La longueur maximale prise en charge des chaînes VHD est de 30.

Les SRs basés sur des fichiers et les implémentations VHD dans HASH (0x2c1a078) supposent qu’ils ont un contrôle total sur le répertoire SR sur le serveur de fichiers. Les administrateurs ne doivent pas modifier le contenu du répertoire SR, car cette action risque d’endommager le contenu des VDI.

HASH (0x2c1a078) a été réglé pour le stockage de classe entreprise qui utilise une RAM non volatile pour fournir des accusés de réception rapides des demandes d’écriture tout en maintenant un haut degré de protection des données contre les défaillances. HASH (0x2c1a078) a été testé de manière approfondie sur le stockage Network Appliance FAS2020 et FAS3210, à l’aide de Data OnTap 7.3 et 8.1

Avertissement :

Comme les VDI sur les SR basées sur des fichiers sont créés en tant que provisionnés légers, les administrateurs doivent s’assurer que les SR basés sur des fichiers disposent d’un espace disque suffisant pour tous les VDI requis. Les serveurs HASH (0x2e68218) n’imposent pas que l’espace requis pour les VDI sur les SR basées sur des fichiers est présent.

Créer un NFS SR (NFS) partagé

Pour créer un SR NFS, vous devez fournir le nom d’hôte ou l’adresse IP du serveur NFS. Vous pouvez créer le SR sur n’importe quel chemin de destination valide ; utilisez lasr-probe commande pour afficher la liste des chemins de destination valides exportés par le serveur.

Dans les scénarios où HASH (0x2c1a078) est utilisé avec un stockage inférieur, il attend avec précaution que toutes les écritures soient reconnues avant de transmettre des accusés de réception aux machines virtuelles. Cette approche entraîne un coût de performance notable et peut être résolue en définissant le stockage de manière à présenter le point de montage SR comme une exportation en mode asynchrone. Les exportations asynchrones reconnaissent les écritures qui ne sont pas réellement sur le disque. Considérez soigneusement les risques de défaillance dans ces situations.

Note :

Le serveur NFS doit être configuré pour exporter le chemin spécifié vers tous les serveurs du pool. Si cette configuration n’est pas effectuée, la création de la SR et le branchement de l’enregistrement PBD échouent.

L’implémentation NFS HASH (0x2c1a078) utilise TCP par défaut. Si votre situation le permet, vous pouvez configurer l’implémentation pour utiliser UDP dans des scénarios où il peut y avoir un avantage de performances. Pour effectuer cette configuration, spécifiez ledevice-config paramètre lors de la création d’un SRuseUDP=true .

Paramètres de configuration du périphérique pour les SR NFS :

Nom du paramètre Description Obligatoire ?
server Adresse IP ou nom d’hôte du serveur NFS Oui
serverpath Chemin, y compris le point de montage NFS, vers le serveur NFS qui héberge le serveur SR Oui

Par exemple, pour créer une SR NFS partagée sur192.168.1.10:/export1, utilisez la commande suivante :

    xe sr-create content-type=user \
    name-label="shared NFS SR" shared=true \
    device-config:server=192.168.1.10 device-config:serverpath=/export1 type=nfs \
    nfsversion="3", "4"

Pour créer un SR NFS non partagé, exécutez la commande suivante :

    xe sr-create host-uuid=host_uuid content-type=user \
    name-label="Non-shared NFS SR" \
    device-config:server=192.168.1.10 device-config:serverpath=/export1 type=nfs \
    nfsversion="3", "4"

Créer un SR SMB partagé (SMB)

Pour créer un SR SMB, indiquez le nom d’hôte ou l’adresse IP du serveur SMB, le chemin d’accès complet du partage exporté et les informations d’identification appropriées.

Note :

SMB SR a été testé sur le stockage Network Appliance exécutant OnTap 8.3 et Windows Server 2012 R2.

Paramètres de configuration du périphérique pour les SR SMB :

Nom du paramètre Description Obligatoire ?
server Chemin complet de partage sur le serveur Oui
username Compte utilisateur avec accès RW pour partager Facultatif
password Mot de passe du compte utilisateur Facultatif

Par exemple, pour créer une SR SMB partagée sur192.168.1.10:/share1, utilisez la commande suivante :

    xe sr-create content-type=user \
    name-label="Example shared SMB SR" shared=true \
    device-config:server=//192.168.1.10/share1 \
    device-config:username=valid_username device-config:password=valid_password type=smb

Pour créer une SR SMB non partagée, exécutez la commande suivante :

    xe sr-create host-uuid=host_uuid content-type=user \
    name-label="Non-shared SMB SR" \
    device-config:server=//192.168.1.10/share1 \
    device-config:username=valid_username device-config:password=valid_password type=smb

Note :

Lors de l’exécution de la commande sr-create, vous pouvez utiliser l’argument device-config:password_secret au lieu de spécifier le mot de passe sur la ligne de commande. Pour plus d’informations, reportez-vous à la section Secrets.

HBA LVM sur matériel

Le type d’adaptateur HBA LVM sur matériel représente les disques sous forme de disques virtuels sur des volumes logiques au sein d’un groupe de volumes créé sur un LUN HBA qui fournit, par exemple, une prise en charge matérielle iSCSI ou FC.

Les serveurs HASH (0x2e68218) prennent en charge les SAN Fibre Channel via des adaptateurs de bus hôte (HBA) Emulex ou QLogic. Toute configuration Fibre Channel requise pour exposer un LUN Fibre Channel à l’hôte doit être effectuée manuellement. Cette configuration inclut les périphériques de stockage, les périphériques réseau et l’adaptateur HBA dans le serveur HASH (0x2e68218). Une fois la configuration FC terminée, l’adaptateur HBA expose un périphérique SCSI soutenu par le LUN FC à l’hôte. Le périphérique SCSI peut ensuite être utilisé pour accéder au LUN FC comme s’il s’agissait d’un périphérique SCSI connecté localement.

Utilisez lasr-probe commande pour répertorier les périphériques SCSI basés sur le LUN présents sur l’hôte. Cette commande force une analyse pour les nouveaux périphériques SCSI basés sur le LUN. La valeur de chemin renvoyée parsr-probe pour un périphérique SCSI basé sur le LUN est cohérente sur tous les hôtes ayant accès au LUN. Par conséquent, cette valeur doit être utilisée lors de la création de SR partagés accessibles par tous les hôtes d’un pool de ressources.

Les mêmes fonctionnalités s’appliquent aux adaptateurs HBA iSCSI QLogic.

Reportez-vousCréer des référentiels de stockageà la section pour plus de détails sur la création de SR FC et iSCSI partagés basés sur HBA.

Note :

La prise en charge de HASH (0x2c1a078) pour Fibre Channel ne prend pas en charge le mappage direct d’un LUN vers une machine virtuelle. Les LUN basés sur HBA doivent être mappés à l’hôte et spécifiés pour une utilisation dans un SR. Les VDI de la SR sont exposés aux machines virtuelles en tant que périphériques de bloc standard.