Thin bereitgestellter gemeinsam genutzter GFS2-Blockspeicher

Thin Provisioning nutzt den verfügbaren Speicher besser, indem VDIs Speicherplatz zugewiesen wird, wenn Daten auf das virtuelle Laufwerk geschrieben werden, anstatt die volle virtuelle Größe des VDIs im Voraus zuzuweisen. Mit der Thin Provisioning können Sie den benötigten Speicherplatz für ein gemeinsam genutztes Speicher-Array und damit Ihre Total Cost of Ownership (TCO) erheblich reduzieren.

Die Thin Provisioning für Shared Block Storage ist in folgenden Fällen von besonderem Interesse:

  • Sie wollen mehr Platzeffizienz. Bilder sind dünn und nicht dick zugeordnet.
  • Sie möchten die Anzahl der E/A-Vorgänge pro Sekunde auf Ihrem Speicher-Array reduzieren. Der GFS2 SR ist der erste SR-Typ, der Speicherlesecaching auf Shared Block Storage unterstützt.
  • Sie verwenden ein gemeinsames Basisabbild für mehrere virtuelle Maschinen. Die Images einzelner VMs verbrauchen dann in der Regel noch weniger Speicherplatz.
  • Sie verwenden Schnappschüsse. Jeder Snapshot ist ein Bild, und jedes Bild ist jetzt dünn.
  • Ihr Speicher unterstützt NFS nicht und unterstützt nur Blockspeicher. Wenn Ihr Speicher NFS unterstützt, empfehlen wir, NFS anstelle von GFS2 zu verwenden.
  • Sie möchten VDIs erstellen, die größer als 2 TiB sind. Der GFS2 SR unterstützt VDIs mit einer Größe von bis zu 16 TiB.

Der freigegebene GFS2-Typ stellt Datenträger als Dateisystem dar, das auf einer iSCSI- oder HBA-LUN erstellt wurde. VDIs, die auf einem GFS2 SR gespeichert sind, werden im QCOW2-Bildformat gespeichert.

Voraussetzungen

Bevor Sie beginnen, stellen Sie sicher, dass die folgenden Voraussetzungen erfüllt sind:

  • Alle Citrix Hypervisor or-Server im Clusterpool müssen über mindestens 2 GiB Steuerdomänenspeicher verfügen.

  • Alle Hosts im Cluster müssen statische IP-Adressen für das Clusternetzwerk verwenden.

  • Es wird empfohlen, Clustering nur in Pools zu verwenden, die mindestens drei Hosts enthalten, da Pools von zwei Hosts empfindlich darauf reagieren, den gesamten Pool selbst zu fechten.

  • Wenn Sie über eine Firewall zwischen den Hosts in Ihrem Pool verfügen, stellen Sie sicher, dass Hosts über die folgenden Ports im Clusternetzwerk kommunizieren können:
    • TCP: 8892, 21064
    • UDP: 5404, 5405

    Weitere Informationen finden Sie unter Von Citrix Technologies verwendete Kommunikationsports.

  • Wenn Sie einen vorhandenen Pool gruppieren, stellen Sie sicher, dass die hohe Verfügbarkeit deaktiviert ist. Sie können die Hochverfügbarkeit wieder aktivieren, nachdem das Clustering aktiviert ist.

  • Sie verfügen über ein blockbasiertes Speichergerät, das für alle Citrix Hypervisor or-Server im Ressourcenpool sichtbar ist.

Einrichten eines Clusterpools für die Verwendung eines gemeinsam genutzten GFS2 SR

Um gemeinsam genutzten GFS2-Speicher zu verwenden, muss der Citrix Hypervisor Ressourcenpool ein Clusterpool sein. Aktivieren Sie Clustering in Ihrem Pool, bevor Sie eine GFS2 SR erstellen.

Hinweis:

Cluster-Pools verhalten sich anders als nicht gruppierte Pools. Weitere Hinweise zum Clusterverhalten finden Sie unterCluster-Pools.

Wenn Sie möchten, können Sie Clustering in Ihrem Pool mithilfe von XenCenter einrichten. Weitere Informationen finden Sie unter XenCenter Produktdokumentation.

So erstellen Sie einen gruppierten Pool mithilfe der xe-CLI:

  1. Erstellen Sie ein gebundenes Netzwerk, das als Clusternetzwerk verwendet werden soll. Führen Sie auf dem Citrix Hypervisor or-Server, der der Poolmaster sein soll, die folgenden Schritte aus:

    1. Öffnen Sie eine Konsole auf dem Citrix Hypervisor or-Server.

    2. Benennen Sie Ihren Ressourcenpool mithilfe des folgenden Befehls:

      xe pool-param-set name-label="New Pool" uuid=<pool_uuid>
      
    3. Erstellen Sie mit dem folgenden Befehl ein Netzwerk zur Verwendung mit der gebundenen NIC:

      xe network-create name-label=bond0
      

      Die UUID des neuen Netzwerks wird zurückgegeben.

    4. Suchen Sie die UUIDs der PIF, die in der Bindung verwendet werden sollen, indem Sie den folgenden Befehl verwenden:

      xe pif-list
      
    5. Erstellen Sie Ihr gebundene Netzwerk entweder im Aktiv-Aktiv-Modus, im Aktiv-Passiv-Modus oder im LACP-Bond-Modus. Je nach Anleihemodus, den Sie verwenden möchten, führen Sie eine der folgenden Aktionen aus:

      • Um die Bindung im Aktiv-Aktiv-Modus (Standard) zu konfigurieren, verwenden Sie den bond-create Befehl, um die Bindung zu erstellen. Geben Sie mithilfe von Kommas die neu erstellte Netzwerk-UUID und die UUIDs der zu gebundenen PIFs an:

         xe bond-create network-uuid=<network_uuid> /
              pif-uuids=<pif_uuid_1>,<pif_uuid_2>,<pif_uuid_3>,<pif_uuid_4>
        

        Geben Sie zwei UUIDs ein, wenn Sie zwei Netzwerkkarten und vier UUIDs verkleben, wenn Sie vier Netzwerkkarten miteinander vereinen. Die UUID für die Bindung wird nach dem Ausführen des Befehls zurückgegeben.

      • Um die Bindung im Aktiv-Passiv- oder LACP-Bond-Modus zu konfigurieren, verwenden Sie die gleiche Syntax, fügen Sie den optionalen mode Parameter hinzu und geben Sie Folgendes lacp an active-backup:

         xe bond-create network-uuid=<network_uuid> pif-uuids=<pif_uuid_1>, /
              <pif_uuid_2>,<pif_uuid_3>,<pif_uuid_4> /
              mode=balance-slb | active-backup | lacp
        

    Nachdem Sie das gebundene Netzwerk auf dem Poolmaster erstellt haben und andere Citrix Hypervisor or-Server mit dem Pool verbinden, werden die Netzwerk- und Bondinformationen automatisch auf den beitrittenden Server repliziert.

    Weitere Informationen finden Sie unter Vernetzung.

  2. Erstellen Sie einen Ressourcenpool mit mindestens drei Citrix Hypervisor or-Servern.

    Wiederholen Sie die folgenden Schritte auf jedem Citrix Hypervisor or-Server, der ein (nicht Master-) Pool-Mitglied ist:

    1. Öffnen Sie eine Konsole auf dem Citrix Hypervisor or-Server.
    2. Verbinden Sie den Citrix Hypervisor or-Server mit dem Pool auf dem Poolmaster mithilfe des folgenden Befehls:

      xe pool-join master-address=master_address master-username=administrators_username master-password=password
      

      Der Wert desmaster-address Parameters muss auf den vollqualifizierten Domänennamen des Citrix Hypervisor or-Servers festgelegt werden, der der Poolmaster ist. Daspassword muss das Administratorkennwort sein, das bei der Installation des Poolmasters festgelegt wurde.

    Weitere Informationen finden Sie unter Hosts und Ressourcenpools.

  3. Legen Sie für jedes PIF fest, das zu diesem Netzwerk gehörtdisallow-unplug=true.

    1. Suchen Sie die UUIDs der PIFs, die zum Netzwerk gehören, mithilfe des folgenden Befehls:

      xe pif-list
      
    2. Führen Sie den folgenden Befehl auf einem Citrix Hypervisor or-Server im Ressourcenpool aus:

      xe pif-param-set disallow-unplug=true uuid=<pif_uuid>
      
  4. Aktivieren Sie Clustering in Ihrem Pool. Führen Sie den folgenden Befehl auf einem Citrix Hypervisor or-Server im Ressourcenpool aus:

    xe cluster-pool-create network-uuid=<network_uuid>
    

    Geben Sie die UUID des gebundenen Netzwerks an, das Sie in einem früheren Schritt erstellt haben.

Einrichten von Speicher-Multipathing für Ihre gemeinsam genutzte GFS2 SR

Wichtig:

Bevor Sie versuchen, Multipathing zu aktivieren, stellen Sie sicher, dass die folgenden Anweisungen zutreffen:

  • Mehrere Ziele sind auf Ihrem Speicherserver verfügbar.

    Beispielsweise gibt ein iSCSI-Speicher-Back-End, das auf einem bestimmten Portal nach sendtargets abgefragt wird, mehrere Ziele zurück, wie im folgenden Beispiel:

      iscsiadm -m discovery —type sendtargets —portal 192.168.0.161
      192.168.0. 161:3260 ,1 iqn.Erdbeer:litchie
      192.168.0. 204:3260 ,2 iqn.Erdbeer:litchie
    
  • Nur für iSCSI verfügt dom0 über eine IP-Adresse in jedem Subnetz, das vom Multipath-Speicher verwendet wird.

    Stellen Sie sicher, dass für jeden Pfad, den Sie zum Speicher benötigen, eine Netzwerkkarte vorhanden ist und dass auf jeder Netzwerkkarte eine IP-Adresse konfiguriert ist. Wenn Sie beispielsweise vier Pfade zu Ihrem Speicher benötigen, müssen Sie über vier Netzwerkkarten verfügen, für die jeweils eine IP-Adresse konfiguriert ist.

  • Nur für HBA sind mehrere HBA mit der Switch-Fabric verbunden.

Sie können XenCenter verwenden, um Speicher-Multipathing einzurichten. Weitere Informationen finden Sie Massenspeicher-Multipathing in der XenCenter Produktdokumentation.

Wenn Sie alternativ die xe-CLI zum Einrichten von Speichermultipathing verwenden möchten, führen Sie die folgenden Schritte auf allen Citrix Hypervisor or-Servern im Clusterpool aus:

  1. Öffnen Sie eine Konsole auf dem Citrix Hypervisor or-Server.

  2. Trennen Sie alle PBDs auf dem Server mithilfe des folgenden Befehls:

    xe pbd-unplug uuid=<pbd_uuid>
    
  3. Setzen Sie den Wert des other-config:multipathing Parameters auf, true indem Sie den folgenden Befehl verwenden:

    xe host-param-set other-config:multipathing=true uuid=<server_uuid>
    
  4. Setzen Sie den Wert des other-config:multipathhandle Parameters auf, dmp indem Sie den folgenden Befehl verwenden:

    <server_uuid>xe host-param-set other-config:multipathhandle=dmp uuid=
    
  5. Wenn auf dem Server bereits SRs vorhanden sind, die im Einzelpfadmodus ausgeführt werden, aber mehrere Pfade aufweisen:

    • Migrieren oder suspendieren von laufenden Gästen mit virtuellen Laufwerken in den betroffenen SRs

    • Trennen Sie die PBD aller betroffenen SRs, und schließen Sie sie erneut an, um sie mithilfe von Multipathing wiederherzustellen:

       xe pbd-unplug uuid=<pbd_uuid>
       xe pbd-plug uuid=<pbd_uuid>
      

Weitere Informationen finden Sie unter Massenspeicher-Multipathing.

Erstellen einer gemeinsam genutzten GFS2 SR

Sie können Ihre freigegebene GFS2 SR auf einem iSCSI oder einer HBA-LUN erstellen.

Erstellen eines gemeinsam genutzten GFS2 über iSCSI SR

Sie können GFS2 über iSCSI-SRs mit XenCenter erstellen. Weitere Informationen finden Sie Software-iSCSI-Speicher in der XenCenter Produktdokumentation.

Alternativ können Sie die xe CLI verwenden, um eine GFS2 über iSCSI SR zu erstellen.

Gerätekonfigurationsparameter für GFS2 SRs:

Parametername Beschreibung Erforderlich?
provider Die Blockanbieter-Implementierung. In diesem Fall, iscsi. Ja
target Die IP-Adresse oder der Hostname des iSCSI-Filers, der hostet Ja
targetIQN Das IQN-Ziel des iSCSI-Filers, der die SR hostet Ja
SCSIid SCSI-ID des Geräts Ja

Sie können die Werte finden, die für diese Parameter verwendet werden sollen, indem Sie denxe sr-probe-ext Befehl verwenden.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Starten Sie mit dem folgenden Befehl:

    xe sr-probe-ext type=gfs2 device-config:provider=iscsi
    

    Die Ausgabe des Befehls fordert Sie auf, zusätzliche Parameter anzugeben und gibt bei jedem Schritt eine Liste möglicher Werte an.

  2. Wiederholen Sie den Befehl und fügen Sie jedes Mal neue Parameter hinzu.

  3. Wenn die Befehlsausgabe mit beginnt The following SRs were found:, können Sie die device-config Parameter verwenden, die Sie angegeben haben, um die SR beim Ausführen des xe sr-create Befehls zu suchen.

Führen Sie den folgenden Befehl auf einem Server in Ihrem Clusterpool aus, um eine freigegebene GFS2-SR auf einer bestimmten LUN eines iSCSI-Ziels zu erstellen:

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
   device-config:provider=iscsi device-config:targetIQN=target_iqns \
   device-config:target=portal_address device-config:SCSIid=scsci_id

Wenn das iSCSI-Ziel nicht erreichbar ist, während GFS2-Dateisysteme gemountet sind, können einige Hosts im Clusterpool einen Zaun aufweisen.

Weitere Hinweise zum Arbeiten mit iSCSI-SRs finden Sie unterSoftware-iSCSI-Unterstützung.

Erstellen eines gemeinsam genutzten GFS2 über HBA SR

Sie können GFS2 über HBA-SRs mit XenCenter erstellen. Weitere Informationen finden Sie Hardware-HBA-Speicher in der XenCenter Produktdokumentation.

Alternativ können Sie die xe CLI verwenden, um eine GFS2 über HBA SR zu erstellen.

Gerätekonfigurationsparameter für GFS2 SRs:

Parametername Beschreibung Erforderlich?
provider Die Blockanbieter-Implementierung. In diesem Fall, hba. Ja
SCSIid SCSI-ID des Geräts Ja

Sie können die Werte finden, die für den Parameter SCSIID verwendet werden sollen, indem Sie denxe sr-probe-ext Befehl verwenden.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Starten Sie mit dem folgenden Befehl:

    xe sr-probe-ext type=gfs2 device-config:provider=hba
    

    Die Ausgabe des Befehls fordert Sie auf, zusätzliche Parameter anzugeben und gibt bei jedem Schritt eine Liste möglicher Werte an.

  2. Wiederholen Sie den Befehl und fügen Sie jedes Mal neue Parameter hinzu.

  3. Wenn die Befehlsausgabe mit beginnt The following SRs were found:, können Sie die device-config Parameter verwenden, die Sie angegeben haben, um die SR beim Ausführen des xe sr-create Befehls zu suchen.

Um eine freigegebene GFS2-SR auf einer bestimmten LUN eines HBA-Ziels zu erstellen, führen Sie den folgenden Befehl auf einem Server in Ihrem Clusterpool aus:

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
  device-config:provider=hba device-config:SCSIid=device_scsi_id

Weitere Hinweise zum Arbeiten mit HBA-SRs finden Sie unterHardware-Hostbusadapter.

Einschränkungen

Shared GFS2-Speicher weist derzeit folgende Einschränkungen auf:

  • Die VM-Migration mit Speicher-Livemigration wird für VMs, deren VDIs sich auf einem GFS2 SR befinden, nicht unterstützt.
  • Das FCoE-Protokoll wird von GFS2 SRs nicht unterstützt.
  • Trim/Unmap wird auf GFS2 SRs nicht unterstützt.
  • Leistungsmetriken sind für GFS2 SRs und Festplatten auf diesen SRs nicht verfügbar.
  • Die geänderte Blockverfolgung wird für VDIs, die auf GFS2 SRs gespeichert sind, nicht unterstützt.
  • VDIs, die größer als 2 TiB sind, können nicht als VHD oder OVA/OVF exportiert werden. Sie können jedoch VMs mit VDIs größer als 2 TiB im XVA-Format exportieren.
  • Cluster-Pools unterstützen nur bis zu 16 Hosts pro Pool.
  • Wenn ein Netzwerk sowohl für die Verwaltung als auch für die Clustererstellung verwendet wurde, können Sie das Verwaltungsnetzwerk nicht trennen, ohne den Cluster neu zu erstellen.
  • Wenn Sie die IP-Adresse des Clusternetzwerks mithilfe von XenCenter ändern, müssen Clustering und GFS2 vorübergehend deaktiviert werden.
  • Ändern Sie die Bindung Ihres Clusternetzwerks nicht, solange der Cluster live ist und VMs ausgeführt hat. Diese Aktion kann dazu führen, dass der Cluster einen Zaun aufweist.
  • Wenn Sie einen IP-Adresskonflikt (mehrere Hosts mit derselben IP-Adresse) in Ihrem Clusternetzwerk haben, an dem mindestens ein Host mit aktiviertem Clustering beteiligt ist, werden die Hosts nicht gegrenzt. Um dieses Problem zu beheben, beheben Sie den IP-Adresskonflikt.