layout: doc description: “Thin provisioning better utilizes the available storage by allocating disk storage space to VDIs as data is written to the virtual disk, rather than allocating the full virtual size of the VDI in advance. The shared GFS2 type represents disks as a filesystem created on an iSCSI or HBA LUN.”—

Gemeinsam genutzter GFS2-Blockspeicher mit Thin-Provisioning

Beim Thin Provisioning wird der verfügbare Speicher besser genutzt, indem VDIs Datenträgerspeicherplatz zugewiesen wird, während die Daten auf das virtuelle Laufwerk geschrieben werden, anstatt die volle virtuelle Größe des VDI im Voraus zuzuweisen. Thin Provisioning ermöglicht es Ihnen, den auf einem gemeinsam genutzten Speicher-Array benötigten Speicherplatz und damit Ihre Gesamtbetriebskosten (TCO) erheblich zu reduzieren.

Thin Provisioning für gemeinsam genutzten Blockspeicher ist in den folgenden Fällen von besonderem Interesse:

Hinweis:

Wir empfehlen, GFS2 SR nicht mit einem VLAN zu verwenden, da ein bekanntes Problem besteht, bei dem Sie Hosts in einem Clusterpool nicht hinzufügen oder entfernen können, wenn sich das Clusternetzwerk in einem Nicht-Management-VLAN befindet.

Der gemeinsam genutzte GFS2-Typ stellt Datenträger als Dateisystem dar, das auf einer iSCSI- oder HBA-LUN erstellt wurde. Auf einem GFS2 SR gespeicherte VDIs werden im QCOW2-Imageformat gespeichert.

In diesem Artikel wird beschrieben, wie Sie Ihre GFS2-Umgebung mithilfe der Xe-CLI einrichten. Informationen zum Einrichten einer GFS2-Umgebung mithilfe von XenCenter finden Sie in derXenCenter-Produktdokumentation.

1. Planen Sie Ihre GFS2-Umgebung

Um die Vorteile von Thin Provisioning auf gemeinsam genutztem Blockspeicher ohne das Risiko eines Datenverlusts nutzen zu können, muss Ihr Pool ein gutes Maß an Zuverlässigkeit und Konnektivität bieten. Es ist entscheidend, dass die Hosts im Ressourcenpool, die GFS2 verwenden, zuverlässig miteinander kommunizieren können. Um dies sicherzustellen, erfordert XenServer, dass Sie einen Clusterpool mit Ihrem GFS2 SR verwenden. Wir empfehlen Ihnen außerdem, Ihre Umgebung zu entwerfen und die XenServer-Funktionen so zu konfigurieren, dass sie so viel Stabilität und Redundanz wie möglich bieten.

Bevor Sie Ihren XenServer-Pool für die Verwendung mit GFS2-SRs einrichten, sollten Sie die folgenden Anforderungen und Empfehlungen für eine ideale GFS2-Umgebung lesen:

Ein geclusterter Pool mit GFS2-SRs weist einige Verhaltensunterschiede zu anderen Pool- und SR-Typen auf. Weitere Informationen finden Sie unter Einschränkungen.

2. Konfiguration einer redundanten Netzwerkinfrastruktur

Ein gebundenes Netzwerk verbindet zwei oder mehr NICs miteinander, um einen einzigen Kanal für den Netzwerkverkehr zu schaffen. Wir empfehlen, dass Sie ein gebundenes Netzwerk für Ihren Clusterpool-Verkehr verwenden. Bevor Sie Ihr gebündeltes Netzwerk einrichten, stellen Sie jedoch sicher, dass Ihre Netzwerkhardwarekonfiguration die Redundanz im gebundenen Netzwerk fördert. Erwägen Sie, so viele dieser Empfehlungen umzusetzen, wie es für Ihr Unternehmen und Ihre Umgebung möglich ist.

Die folgenden bewährten Methoden erhöhen die Widerstandsfähigkeit gegen Software-, Hardware- oder Stromausfälle, die sich auf Ihre Netzwerk-Switches auswirken können.

3. Erstellen Sie ein dediziertes gebundenes Netzwerk

Es ist wichtig sicherzustellen, dass Hosts in einem Clusterpool zuverlässig miteinander kommunizieren können. Das Erstellen eines Verbundnetzwerks für diesen Pool-Verkehr erhöht die Ausfallsicherheit Ihres Clusterpools.

Ein gebundenes Netzwerk stellt eine Verbindung zwischen zwei oder mehr NICs her, um einen einzigen, leistungsstarken Kanal zu erstellen, den Ihr Clusterpool für Cluster-Heartbeat-Verkehr verwenden kann. Wir empfehlen dringend, dieses gebündelte Netzwerk nicht für anderen Datenverkehr zu verwenden. Erstellen Sie ein separates Netzwerk für den Pool, das für die Verwaltung des Datenverkehrs verwendet werden soll.

Warnung:

Wenn Sie dieser Empfehlung nicht folgen, besteht ein höheres Risiko, Netzwerkpakete für die Clusterverwaltung zu verlieren. Der Verlust von Netzwerkpaketen für die Clusterverwaltung kann dazu führen, dass Ihr Clusterpool das Quorum verliert und einige oder alle Hosts im Pool sich selbst umzäunen.

Wenn Ihr Cluster ein Fencing hat oder ein Problem in dieser nicht empfohlenen Konfiguration auftritt, werden Sie vom XenServer-Support im Laufe der Untersuchung möglicherweise gebeten, dasselbe Problem in einer empfohlenen Konfiguration zu reproduzieren.

So erstellen Sie ein gebundenes Netzwerk, das als Clusternetzwerk verwendet werden soll:

  1. Wenn Sie eine Firewall zwischen den Hosts in Ihrem Pool haben, stellen Sie sicher, dass Hosts über die folgenden Ports im Cluster-Netzwerk kommunizieren können:

    Weitere Informationen finden Sie unter Von XenServer verwendete Kommunikationsports.

  2. Öffnen Sie eine Konsole auf dem XenServer-Host, den Sie als Poolkoordinator verwenden möchten.

  3. Erstellen Sie ein Netzwerk zur Verwendung mit der gebundenen NIC, indem Sie den folgenden Befehl verwenden:

    xe network-create name-label=bond0
    <!--NeedCopy-->
    

    Die UUID des neuen Netzwerks wird zurückgegeben.

  4. Suchen Sie die UUIDs der PIFs, die in der Bindung verwendet werden sollen, indem Sie den folgenden Befehl verwenden:

    xe pif-list
    <!--NeedCopy-->
    
  5. Erstellen Sie Ihr gebundenes Netzwerk entweder im aktiv-aktiven Modus, im aktiv-passiven Modus oder im LACP-Bond-Modus. Führen Sie je nach dem Bond-Modus, den Sie verwenden möchten, eine der folgenden Aktionen aus:

Nachdem Sie Ihr gebundenes Netzwerk auf dem Poolkoordinator erstellt haben und andere XenServer-Hosts mit dem Pool verbinden, werden die Netzwerk- und Bindungsinformationen automatisch auf den beitretenden Server repliziert.

Weitere Informationen finden Sie unter Netzwerk.

Hinweis:

So testen Sie die Failover-Zeiten für Ihr aktiv-passives gebundenes Netzwerk:

Bei verbundenen Netzwerken, die den Aktiv-Passiv-Modus verwenden, gibt es beim Ausfall der aktiven Verbindung eine Failover-Phase, in der die Netzwerkverbindung unterbrochen wird, während die passive Verbindung aktiv wird. Wenn die Zeit, die für das Failover Ihres Aktiv-Passiv-Verbundnetzwerks benötigt wird, länger als das Cluster-Timeout ist, können einige oder alle Hosts in Ihrem Clusterpool immer noch eingezäunt sein.

Sie können die Failoverzeit Ihres verbundenen Netzwerks testen, indem Sie das Netzwerk mithilfe einer der folgenden Methoden zum Failover zwingen:

Wiederholen Sie den Test mehrmals, um sicherzustellen, dass das Ergebnis konsistent ist.

Der Cluster-Timeout-Wert Ihres Pools hängt davon ab, wie viele Hosts sich in Ihrem Cluster befinden. Führen Sie den folgenden Befehl aus, um den Wert token-timeout für den Pool in Sekunden zu ermitteln:

xe cluster-param-get uuid=<cluster_uuid> param-name=token-timeout

Wenn die Failover-Zeit wahrscheinlich über dem Timeout-Wert liegt, sind Ihre Netzwerkinfrastruktur und Konfiguration möglicherweise nicht zuverlässig genug, um einen Clusterpool zu unterstützen.

4. Richten Sie einen Clusterpool ein

Um gemeinsam genutzten GFS2-Speicher zu verwenden, muss der XenServer-Ressourcenpool ein Clusterpool sein. Aktivieren Sie das Clustering in Ihrem Pool, bevor Sie ein GFS2-SR erstellen.

Ein Clusterpool ist ein Pool von XenServer-Hosts, die enger miteinander verbunden und koordiniert sind als Hosts in nicht geclusterten Pools. Die Hosts im Cluster kommunizieren ständig miteinander in einem ausgewählten Netzwerk. Alle Hosts im Cluster kennen den Status jedes Hosts im Cluster. Diese Host-Koordination ermöglicht es dem Cluster, den Zugriff auf den Inhalt des GFS2-SRs zu steuern. Um sicherzustellen, dass der Clusterpool immer in Verbindung bleibt, muss jeder Host in einem Cluster immer mit mindestens der Hälfte der Hosts im Cluster kommunizieren (einschließlich sich selbst). Dieser Zustand ist als Host mit Quorum bekannt. Wenn ein Host kein Quorum hat, wird er neu gestartet und entfernt sich selbst aus dem Cluster. Diese Aktion wird als “Fechten” bezeichnet.

Weitere Informationen finden Sie unter Clustered-Pools.

Bevor Sie mit der Einrichtung Ihres Clusterpools beginnen, stellen Sie sicher, dass die folgenden Voraussetzungen erfüllt sind:

So verwenden Sie die xe CLI zum Erstellen eines Clusterpool:

  1. Erstellen Sie einen Ressourcenpool mit mindestens drei XenServer-Hosts.

    Wiederholen Sie die folgenden Schritte auf jedem beitretenden XenServer-Host, der nicht der Poolkoordinator ist:

    1. Öffnen Sie eine Konsole auf dem XenServer-Host.
    2. Verbinden Sie den XenServer-Host mit dem Pool auf dem Poolkoordinator, indem Sie den folgenden Befehl verwenden:

      xe pool-join master-address=<master_address> /
          master-username=<administrators_username> /
          master-password=<password>
      <!--NeedCopy-->
      

      Der Wert des master-address Parameters muss auf den vollqualifizierten Domänennamen des XenServer-Hosts gesetzt werden, der der Poolkoordinator ist. Das password muss das Administratorkennwort sein, das bei der Installation des Poolkoordinators festgelegt wurde.

    Weitere Informationen finden Sie unter Hosts und Ressourcenpools.

  2. Stellen Sie für jedes PIF, das zu diesem Netzwerk gehört, ein disallow-unplug=true.

    1. Suchen Sie die UUIDs der PIFs, die zum Netzwerk gehören, indem Sie den folgenden Befehl verwenden:

      xe pif-list
      <!--NeedCopy-->
      
    2. Führen Sie den folgenden Befehl auf einem XenServer-Host in Ihrem Ressourcenpool aus:

      xe pif-param-set disallow-unplug=true uuid=<pif_uuid>
      <!--NeedCopy-->
      
  3. Aktivieren Sie das Clustering in Ihrem Pool. Führen Sie den folgenden Befehl auf einem XenServer-Host in Ihrem Ressourcenpool aus:

    xe cluster-pool-create network-uuid=<network_uuid>
    <!--NeedCopy-->
    

    Geben Sie die UUID des gebundenen Netzwerks an, das Sie in einem früheren Schritt erstellt haben.

5. Erhöhen Sie den Speicher Ihrer Steuerdomäne

Wenn Sie auf Ihren Hosts nicht genügend Steuerdomänenspeicher haben, kann es in Ihrem Pool zu Netzwerkinstabilität kommen. Netzwerkinstabilität kann bei einem Clusterpool mit GFS2-SRs zu Problemen führen.

Es ist wichtig sicherzustellen, dass Ihr Clusterpool über eine angemessene Menge an Steuerdomänenspeicher verfügt. Hinweise zum Ändern der Größe des Steuerdomänenspeichers und zum Überwachen des Speicherverhaltens finden Sie unter Speicherauslastung.

6. Speicher-Multipathing konfigurieren

Stellen Sie sicher, dass Storage-Multipathing zwischen Ihrem Clusterpool und Ihrem GFS2-SR eingerichtet ist.

Multipathing leitet den Speicherdatenverkehr aus Redundanzgründen über mehrere Pfade an ein Speichergerät weiter. Auf allen Strecken kann während des normalen Betriebs aktiver Verkehr herrschen, was zu einem erhöhten Durchsatz führt.

Bevor Sie Multipathing aktivieren, überprüfen Sie, ob die folgenden Anweisungen zutreffen:

So aktivieren Sie Multipathing mit der xe-CLI

Wir empfehlen, dass Sie Multipathing für alle Hosts in Ihrem Pool aktivieren, bevor Sie die SR erstellen. Wenn Sie die SR erstellen, bevor Sie Multipathing aktivieren, müssen Sie Ihre Hosts in den Wartungsmodus versetzen, um Multipathing zu aktivieren.

  1. Öffnen Sie eine Konsole auf dem XenServer-Host.

  2. Trennen Sie alle PBDs auf dem Host mit dem folgenden Befehl:

    xe pbd-unplug uuid=<pbd_uuid>
    <!--NeedCopy-->
    

    Sie können den Befehl verwenden xe pbd-list, um die UUID der PBDs zu finden.

  3. Setzen Sie den Wert des Parameters multipathing auf true, indem Sie den folgenden Befehl verwenden:

    xe host-param-set uuid=<host uuid> multipathing=true
    <!--NeedCopy-->
    
  4. Wenn auf den Hosts, die im Einzelpfadmodus ausgeführt werden, SRs mit mehreren Pfaden vorhanden sind:

  5. Wiederholen Sie diese Schritte, um Multipathing auf allen Hosts im Pool zu aktivieren.

Stellen Sie sicher, dass Sie Multipathing auf allen Hosts im Pool aktivieren. Die gesamte Verkabelung und, im Fall von iSCSI, die Subnetzkonfigurationen müssen mit den entsprechenden NICs auf jedem Host übereinstimmen.

Weitere Informationen finden Sie unter Speicher-Multipathing.

7. Erstellen Sie eine GFS2-SR

Erstellen Sie Ihre gemeinsam genutzte GFS2 SR auf einer iSCSI- oder HBA-LUN, die für alle XenServer-Hosts in Ihrem Ressourcenpool sichtbar ist. Wir empfehlen nicht, eine Thin-Provision-LUN mit GFS2 zu verwenden. Wenn Sie diese Konfiguration wählen, müssen Sie jedoch sicherstellen, dass die LUN immer über genügend Speicherplatz verfügt, damit XenServer darauf schreiben kann.

Sie können einem Clusterpool bis zu 62 GFS2-SRs hinzufügen.

Wenn Sie Ihr blockbasiertes Speichergerät zuvor für Thick Provisioning mit LVM verwendet haben, wird dies von XenServer erkannt. XenCenter bietet Ihnen die Möglichkeit, die vorhandene LVM-Partition zu verwenden oder den Datenträger zu formatieren und eine GFS2-Partition einzurichten.

Erstellen eines gemeinsam genutzten GFS2 über iSCSI SR

Sie können GFS2 über iSCSI-SRs mit XenCenter erstellen. Weitere Informationen finden Sie unter Software-iSCSI-Speicher in der XenCenter-Produktdokumentation .

Alternativ können Sie die xe CLI verwenden, um ein GFS2 über iSCSI SR zu erstellen.

Gerätekonfigurationsparameter für GFS2-SRs:

Parametername Beschreibung Erforderlich?
provider Die Blockanbieter-Implementierung. In diesem Fall, iscsi. Ja
target Die IP-Adresse oder der Hostname des iSCSI-Filers, der hostet Ja
targetIQN Das IQN-Ziel des iSCSI-Filers, der das SR hostet Ja
SCSIid SCSI-ID des Geräts Ja

Sie können die für diese Parameter zu verwendenden Werte mit dem Befehl xe sr-probe-ext finden.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
<!--NeedCopy-->
  1. Führen Sie zunächst den folgenden Befehl aus:

    xe sr-probe-ext type=gfs2 device-config:provider=iscsi
    <!--NeedCopy-->
    

    Die Ausgabe des Befehls fordert Sie auf, zusätzliche Parameter anzugeben, und enthält bei jedem Schritt eine Liste möglicher Werte.

  2. Wiederholen Sie den Befehl und fügen Sie jedes Mal neue Parameter hinzu.

  3. Wenn die Befehlsausgabe mit beginnt Found the following complete configurations that can be used to create SRs:, können Sie den SR mithilfe des xe sr-create Befehls und der von Ihnen angegebenen device-config Parameter suchen.

    Beispielausgabe:

    ```Es wurden die folgenden vollständigen Konfigurationen gefunden, die zur Erstellung von SRs verwendet werden können: Konfiguration 0: scsiID: 36001405852f77532a064687aea8a5b3f TargetIQN: iqn.2009-01.example.com:iscsi192a25d6 Ziel : 198.51.100.27 Anbieter: iscsi

    Configuration 0 extra information: ```

Um ein gemeinsam genutztes GFS2-SR auf einer bestimmten LUN eines iSCSI-Ziels zu erstellen, führen Sie den folgenden Befehl auf einem Server in Ihrem Clusterpool aus:

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
   device-config:provider=iscsi device-config:targetIQN=<target_iqns> \
   device-config:target=<portal_address> device-config:SCSIid=<scsci_id>

Wenn das iSCSI-Ziel nicht erreichbar ist, während GFS2-Dateisysteme gemountet sind, kann es sein, dass einige Hosts im Clusterpool neu gestartet werden (Fencing).

Weitere Informationen zum Arbeiten mit iSCSI SRs finden Sie unter Software-iSCSI-Unterstützung.

Erstellen eines gemeinsam genutzten GFS2 über HBA SR

Sie können GFS2 über HBA-SRs erstellen, indem Sie XenCenter verwenden. Weitere Informationen finden Sie unter Hardware-HBA-Speicher in der XenCenter-Produktdokumentation.

Alternativ können Sie die xe CLI verwenden, um ein GFS2 über HBA SR zu erstellen.

Gerätekonfigurationsparameter für GFS2-SRs:

Parametername Beschreibung Erforderlich?
provider Die Blockanbieter-Implementierung. In diesem Fall, hba. Ja
SCSIid SCSI-ID des Geräts Ja

Sie können die für den SCSIid-Parameter zu verwendenden Werte mit dem Befehl xe sr-probe-ext finden.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. Führen Sie zunächst den folgenden Befehl aus:

    xe sr-probe-ext type=gfs2 device-config:provider=hba
    

    Die Ausgabe des Befehls fordert Sie auf, zusätzliche Parameter anzugeben, und enthält bei jedem Schritt eine Liste möglicher Werte.

  2. Wiederholen Sie den Befehl und fügen Sie jedes Mal neue Parameter hinzu.

  3. Wenn die Befehlsausgabe mit beginnt Found the following complete configurations that can be used to create SRs:, können Sie den SR mithilfe des xe sr-create Befehls und der von Ihnen angegebenen device-config Parameter suchen.

    Beispielausgabe:

    ```Es wurden die folgenden vollständigen Konfigurationen gefunden, die zur Erstellung von SRs verwendet werden können: Konfiguration 0: scsiID: 36001405852f77532a064687aea8a5b3f TargetIQN: iqn.2009-01.example.com:iscsi192a25d6 Ziel : 198.51.100.27 Anbieter: iscsi

    Configuration 0 extra information: ```

Um ein gemeinsam genutztes GFS2-SR auf einer bestimmten LUN eines HBA-Ziels zu erstellen, führen Sie den folgenden Befehl auf einem Server in Ihrem Clusterpool aus:

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
  device-config:provider=hba device-config:SCSIid=<device_scsi_id>
<!--NeedCopy-->

Weitere Informationen zum Arbeiten mit HBA-SRs finden Sie unter Hardware-Hostbusadapter.

Was kommt als Nächstes?

Nachdem Sie Ihre GFS2-Umgebung eingerichtet haben, ist es wichtig, dass Sie die Stabilität Ihres Clusterpools aufrechterhalten, indem Sie sicherstellen, dass er über ein Quorum verfügt. Weitere Informationen finden Sie unter Verwalten Ihres Clusterpools.

Wenn Probleme mit Ihrer GFS2-Umgebung auftreten, finden Sie weitere Informationen unter Problembehandlung bei Clusterpools.

Sie können Ihren GFS2 SR genauso verwalten wie andere SRs. Sie können beispielsweise dem Speicher-Array Kapazität hinzufügen, um die Größe der LUN zu erhöhen. Weitere Informationen finden Sie unter Live-LUN-Erweiterung.

Einschränkungen

Gemeinsam genutzter GFS2-Speicher weist derzeit die folgenden Einschränkungen auf: