Designmethodik Hardwarelayer

Dieser Abschnitt behandelt die Hardware-Dimensionierung für virtuelle Infrastrukturserver, virtuelle Desktops und virtuelle Anwendungshosts. Zwei Verfahren sind für die Dimensionierung dieser Server üblich.

  • Das erste und bevorzugte Verfahren ist der Erwerb neuer Hardware nach Analyse der Workload-Anforderungen.
  • Die zweite Möglichkeit ist die Konfigurationsanpassung vorhandener Hardware, um unterschiedliche Workload-Anforderungen zu unterstützen.

Im Folgenden werden Entscheidungen in Bezug auf beide Methoden erörtert.

Entscheidung: Trennen von Workloads

Beim Implementieren einer XenApp und XenDesktop-Bereitstellung können Infrastruktur-, XenDesktop- und XenApp-Workloads entweder in dedizierte Ressourcencluster getrennt oder auf denselben physischen Hosts gemischt werden. Citrix empfiehlt das Trennen von Workloads in Ressourcencluster, insbesondere in einer Unternehmensbereitstellung. Dies verbessert die Host-Dimensionierung, da Workloads sich in Anforderungen wie Überbuchungsverhältnis und Speichernutzung unterscheiden.

In kleineren Umgebungen können Workloads auf Kostengründen gemischt werden, solange eine hochverfügbare Umgebung weiterhin gewährleistet ist. Citrix empfiehlt das Trennen von Workloads und betrachtet gemischte Workloads als kostenbasierte Geschäftsentscheidung.

Entscheidung: Physischer Prozessor (pCPU)

Die folgende Tabelle zeigt an, wie viele virtuelle Desktops pro physischem Kern für leichte, mittlere und intensive Workloads unterstützt werden können. Jeder Desktop entspricht einem einzelnen gleichzeitigen Benutzer bei optimiertem Betriebssystem.

Benutzerworkload

  • Gering
Betriebssystem Benutzer pro physischem Kern
Windows 7 13
Windows 8 12
Windows 10 12
Windows 2008 R2 18
Windows 2012 R2 21
Windows 2016 21
  • Mittel
Betriebssystem Benutzer pro physischem Kern
Windows 7 10
Windows 8 9
Windows 10 9
Windows 2008 R2 12
Windows 2012 R2 14
Windows 2016 14
  • Groß
Betriebssystem Benutzer pro physischem Kern
Windows 7 5
Windows 8 4
Windows 10 4
Windows 2008 R2 6
Windows 2012 R2 7
Windows 2016 7

Der Schätzwert für “Benutzer pro physischem Kern” ist ein Basiswert für Microsoft Office 2010. Dieser Basiswert muss an die Anforderungen der Infrastruktur angepasst werden. Die folgenden Elemente ändern den Basiswert und damit die Serverdichte.

Element Auswirkung auf Serverdichte
Antivirus (nicht optimiert) minus 25 %
Echtzeitüberwachung minus 15 %
Office 2013 minus 20 %
Office 2016 minus 25 %
Hyperthreading plus 20 %

Mit der folgenden Formel ermitteln Sie für jede Benutzergruppe einen Schätzwert für die Gesamtanzahl der physischen Kerne, die für den XenApp und XenDesktop-Workload erforderlich sind:

Bild der Workload-Formel

Σ steht für die Summe aller Benutzergruppenkombinationen “i”.

Usersi = Anzahl gleichzeitiger Benutzer pro Benutzergruppe

UsersPercorei = Anzahl der Benutzer pro physischem Kern

AV = Auswirkung von Virenschutz (Standard = 0,25)

Mon = Auswirkung von Überwachungstools (Standard = 0,15)

Off13 = Auswirkung von Office 2013 (Standard = 0,2)

Off16 = Auswirkung von Office 2016 (Standard = 0,25)

HT = Auswirkung von Hyperthreading (Standard = 0,2)

Bei getrennten XenApp- und XenDesktop-Workloads sollte die Formel zweimal berechnet werden, einmal für alle XenDesktop-Benutzer und anschließend für alle XenApp-Benutzer.

Entscheidung: Physischer Speicher (pRAM)

Das empfohlene Verfahren für die Dimensionierung des Speichers für einen physischen Host basiert auf dem Gesamtspeicher, der zur Unterstützung der virtuellen Maschinen und der CPU-Kapazität des Hosts erforderlich ist. Um den erforderlichen Gesamtspeicher für XenApp und XenDesktop zu berechnen, multiplizieren Sie die Anzahl der virtuellen Maschinen mit dem ihnen zugewiesenen Speicher. Die Summe aller Maschinenkataloge entspricht dem Gesamt-RAM, der für XenApp und XenDesktop-Hosts erforderlich ist. Dies wird in der folgenden Formel gezeigt.

Bild der Workload-Formel

Σ steht für die Summe aller Benutzergruppenkombinationen “i”.

VMi = Anzahl gleichzeitiger Benutzer pro Benutzergruppe

vRAMI = Speicher, der jeder virtuellen Maschine zugewiesen ist

Beim Aufteilen von XenApp- und XenDesktop-Workloads auf mehrere Hosts sollte die Formel zweimal berechnet werden, einmal für alle XenDesktop-Benutzer und anschließend für alle XenApp-Benutzer.

Entscheidung: Physischer Host (pHost)

In den meisten Situationen ist die Anzahl der physischen Hosts (pHost) zur Unterstützung der XenApp und XenDesktop-Workloads auf die Anzahl der verfügbaren Prozessorkerne begrenzt. Die folgende Formel bietet einen Schätzwert zur Anzahl der für die Benutzerworkloads erforderlichen Hosts. Die Formel basiert auf der bewährten Methode, XenApp- und XenDesktop-Workloads zu trennen, da für jeden ein eigenes CPU-Überbuchungsverhältnis gilt.

XenDesktop-pHosts = (Gesamtanzahl der XenDesktop-pCPU / Kerne pro pHost +1)

XenApp-pHosts = (Gesamtanzahl der XenApp-pCPU / Kerne pro pHost +1)

Nachdem die Anzahl der physischen Hosts basierend auf Prozessorkernen ermittelt wurde, wird die Speichermenge für jeden Host berechnet.

XenDesktop-pRAM pro pHost = HypervisorRAM + (Gesamtmenge an XenDesktop-pRAM / XenDesktop-pHosts -1)

XenAPP-pRAM pro pHost = HypervisorRAM + (Gesamtmenge an XenApp-pRAM / XenApp-pHosts -1)

Entscheidung: GPU

Hosts, die grafische Workloads bereitstellen, benötigen Grafikprozessoren, die eine Highend-Benutzererfahrung bieten. Spezielle Hardware-Hosts und Grafikkarten sind erforderlich, um Highend-Grafiken mit HDX 3D Pro zu unterstützen. Eine aktualisierte Liste der getesteten Hardware ist in einem Knowledge Base-Artikel verfügbar. Die Dimensionierung der Desktop- und Anwendungshosts für Benutzer von Highend-Grafiken muss auf den GPU-Anforderungen basieren, damit der Host ausreichende CPU- und Speicherressourcen bietet.

NVIDIA GRID-Karten können mit vGPU-Profilen genutzt werden, um mehrere Benutzer zu unterstützen. Die folgende Tabelle enthält Dimensionierungsrichtlinien von NVIDIA.

J in der Tabelle gibt an, dass Anwendungszertifikate verfügbar sind.

NVIDIA GRID-Grafikkarte Virtuelles GPU-Profil Anwendungszertifizierungen Grafikspeicher Max. Displays pro Benutzer Max. Auflösung pro Display Max. vGPU pro Grafikkarte Anwendungsfall
GRID K2 K280Q J 4096 MB 4 2560 x 1600 2 Designer
  K260Q J 2048 MB 4 2560 x 1600 4 Designer / Hauptbenutzer
  K240Q J 1024 MB 2 2560 x 1600 8 Designer / Hauptbenutzer
  K220Q J 512 MB 2 2560 x 1600 16 Wissensarbeiter
  K200   256 MB 2 1900 x 1200 16 Hauptbenutzer
GRID K1 K180Q J 4096 MB 4 2560 x 1600 4 Hauptbenutzer
  K160Q J 2048 MB 4 2560 x 1600 8 Hauptbenutzer
  K140Q J 1024 MB 2 2560 x 1600 16 Hauptbenutzer
  K120Q J 512 MB 2 2560 x 1600 32 Hauptbenutzer
  K100   256 MB 2 1900 x 1200 32 Wissensarbeiter

Festlegen der Speichergröße

Entscheidung: Speicherarchitektur

Die Architekturen des primären Speichers sind wie folgt:

  • Lokaler Speicher - Verwendet Festplatten, die direkt an das Computersystem angeschlossen sind. Die Datenträger können nicht gemeinsam mit anderen Computersystemen genutzt werden. Wenn der Computer jedoch freigegebene gepoolte oder gehostete Desktops hostet, ist eine Speicherfreigabe nicht erforderlich. In vielen Fällen bietet ein lokaler Speicher dieselbe Leistung wie ein freigegebener Speicher. Die Skalierbarkeit ist auf die Anzahl der im Computersystem verfügbaren Laufwerksschächte beschränkt. Viele Bladeserver verfügen beispielsweise nur über zwei Laufwerksschächte, sodass der Einsatz eines lokalen Speichers zur Unterstützung einer XenDesktop-Bereitstellung möglicherweise nicht optimal ist.
  • Direct Attached System (DAS) - Speichersubsystem, das per Kabel direkt an einen Server oder eine Workstation angeschlossen ist. Es verwendet Blockspeicher und kann aus einer lokalen Festplatte im Computersystem oder einem Festplatten-Shelf mit mehreren durch externe Kabel angeschlossenen Festplatten bestehen. Im Gegensatz zu lokalen Datenträgern müssen Festplatten-Shelfs separat verwaltet werden. Speicher-Shelfs können mit mehreren Servern verbunden sein, sodass Daten oder Datenträger gemeinsam genutzt werden können.
  • Network Attached Storage (NAS) - Bietet Dateispeicher für Computersysteme über Netzwerkdateifreigaben. Das NAS agiert dabei als Dateiserver. NAS-Systeme sind vernetzte Appliances mit einer oder mehreren Festplatten, die häufig als logische, redundante Speichercontainer oder RAID-Arrays angeordnet sind. Der Zugriff erfolgt in der Regel über standardmäßige Ethernet- und Netzwerk-Dateifreigabeprotokolle wie NFS, SMB/CIFS oder AFP.

Hinweis

Ein NAS kann ein zentraler Ausfallpunkt sein. Wenn die Netzwerkfreigabe nicht verfügbar ist, sind alle von der Festplatte gestreamten Zielgeräte ebenfalls nicht länger verfügbar.

  • Storage Area Network (SAN) - Dediziertes Speichernetzwerk, das Zugriff auf konsolidierten Blockspeicher bietet. Computer können über ein SAN auf verschiedene Speichergeräte zugreifen. Da kein Server der Eigentümer des Speichersubsystems ist, können Daten auf mehreren Computern verwendet werden. Ein SAN verfügt in der Regel über ein eigenes dediziertes Netzwerk von Speichergeräten, auf die in der Regel nicht über das Netzwerk zugegriffen werden kann. Um ein Gerät mit dem SAN zu verbinden, ist ein spezieller Hostbusadapter (HBA) erforderlich. SANs sind hochgradig skalierbar, und das Anschließen weiterer Speicher und Geräte führt nicht zu spürbaren Leistungseinbußen. Der Einsatz von SANs kann kostspielig sein und viel Zeit zum Erlernen, Bereitstellen und Verwalten der Technologie erfordern.
  • Hybrid - Ein NAS-Head ist ein NAS, das über keinen integrierten Speicher verfügt, sondern stattdessen mit einem SAN verbunden ist. Es fungiert als Übersetzer zwischen den NAS-Protokollen auf Dateiebene (NFS, CIFS usw.) und den SAN-Protokollen auf Blockebene (Fibre Channel und iSCSI). Damit bietet es die Vorteile beider Technologien und ermöglicht, dass Computer sich ohne auch Hostbusadapter (HBA) mit dem zentralisierten Speicher verbinden können.

In der folgenden Tabelle werden die verfügbaren Speicheroptionen zusammengefasst und ihre Eignung für XenDesktop-Bereitstellungen bewertetet.

Speichereigenschaften Lokal DAS NAS SAN
Implementierungskosten Niedrig Mittel Mittel Hoch
Verwaltung Niedrig Mittel Mittel Hoch
Leistung Hoch Mittel - Hoch Mittel - Hoch Hoch
Redundanz Niedrig - Mittel Mittel - Hoch Mittel - Hoch Hoch
Skalierbarkeit Niedrig Mittel - Hoch Mittel - Hoch Hoch
Typischer Anwendungsfall Kleine bis mittlere Produktions- und Testumgebungen Kleine bis mittlere Produktionsumgebungen Kleine bis mittlere Produktionsumgebungen Mittlere bis große Produktionsumgebungen

Hinweis

Hyper-V 2008 R2 unterstützt keine NAS-Technologie. Hyper-V 2012/2012 R2 unterstützt nur NAS-Lösungen, die das SMB 3.0-Protokoll unterstützen. Weitere Informationen finden Sie im Handbuch in den Abschnitten zu HyperV 2008 R2 und Hyper-V 2012 R2.

Lokaler Speicher eignet sich am besten zum Speichern virtueller Maschinen, die keine hohe Verfügbarkeit erfordern und keine persistenten Daten aufweisen, zum Beispiel zufällige (gepoolte) Desktops oder gehostete freigegebene Desktops. Lokaler Speicher und DAS eignen sich zum Speichern von Benutzerdaten und Homeverzeichnisdateien. Bei Verwendung von Maschinenerstellungsdiensten müssen Masterimages und Aktualisierungen auf jedem Server repliziert werden.

NAS- und SAN-Storage eignet sich am besten für Infrastrukturserver, die die XenDesktop-Umgebung unterstützen, sowie für virtuelle Maschinen mit nichtflüchtigen Daten wie statische (dedizierte) Desktops.

Entscheidung: RAID-Level

Zur Wahl des optimalen RAID-Levels müssen IOPS-Wert und Schreib-/Lese-Verhältnis, die von einer Anwendung oder einem Workload generiert werden, in Kombination mit den individuellen Fähigkeiten eines RAID-Levels berücksichtigt werden. Für das Hosten leseintensiver Workloads wie beim vDisk-Store von Provisioning Services sind für Lesevorgänge optimierte RAID-Level wie RAID 1, 5, 6 und 10 optimal. Bei diesen RAID-Levels können Lesevorgänge auf alle Datenträger im RAID-Set gleichzeitig verteilt werden.

Für das Hosten schreibintensiver Workloads wie beim Schreibcache von Provisioning Services und differenzierenden Datenträgern für Maschinenerstellungsdienste sind RAID-Level wie RAID 1 oder RAID 10 optimal, da diese für Schreibvorgänge optimiert sind und einen niedrigen Write Penalty-Wert aufweisen.

In der folgenden Tabelle werden die wichtigsten quantitativen Attribute der gebräuchlichsten RAID-Level beschrieben:

RAID Kapazität (%) Fehlertoleranz Leseleistung Schreibleistung Mindestanzahl von Datenträgern
0 100 Ohne Sehr hoch Hoch (Write Penalty 1) 2
1 50 Ausfall eines einzelnen Laufwerks Sehr hoch Mittel (Write Penalty 2) 2
5 67 - 94 Ausfall eines einzelnen Laufwerks Hoch Niedrig (Write Penalty 4) 3
6 50 - 88 Zwei gleichzeitige Laufwerksausfälle Hoch Niedrig (Write Penalty 6) 4
10 50 Ausfall eines Laufwerks in jedem Teilarray Sehr hoch Mittel (Write Penalty 2) 4

Hinweis

Der Mehraufwand für Schreiboperationen (Write Penalty) ist inhärent in RAID-Datenschutztechniken, die für jede Schreibanforderung einer Anwendung mehrere Datenträger-E/A-Anforderungen erfordern. Er kann minimal (in gespiegelten Arrays) oder erheblich sein (RAID-Level 5 und 6).

Entscheidung: Anzahl der Datenträger

Um die Anzahl der benötigten Datenträger zu bestimmen, müssen Sie die Leistungsmerkmale der einzelnen Datenträger, die Eigenschaften des RAID-Levels und die Leistungsanforderungen des Workloads verstehen. Die Grundformel zur Berechnung der benötigten Datenträger lautet:

Gesamtanzahl der Datenträger = Gesamtanzahl der Read IOPS + (Gesamtanzahl der Write IOPS x RAID Penalty) / Datenträger-IOPS

Ein Hersteller von Datenträgern kann beispielsweise für ein bestimmtes Datenträgerarray einen Gesamtworkload von 2000 IOPS angeben. Der Wert für Raw IOPS beträgt 175 pro Festplatte. Berechnung der erforderlichen Datenträger für einen Workload mit 20 % Lesevorgängen und 80 % Schreibvorgängen auf RAID 10:

Gesamtzahl der Datenträger = ((20 % x 2000) + (80 % x 2000) x 2) / 175 = 20,57 oder 21 Datenträger

Die folgende Tabelle zeigt basierend auf dem vorherigen Beispiel, wie die Datenträgeranzahl je nach RAID-Level und Verhältnis von Lese-/Schreibvorgängen variieren kann.

RAID RAW-IOPS (pro Datenträger) Workload-IOPS Lesen % Schreiben % Datenträgeranzahl
0 175 2000 20 80 12
  175 2000 80 20 12
1 / 10 175 2000 20 80 21
  175 2000 80 20 14
5 175 2000 20 80 39
  175 2000 80 20 19

Entscheidung: Datenträgertyp

Festplattenlaufwerke (HDDs) sind die traditionelle Laufwerksvariante. Diese Datenträger bestehen aus rotierenden Scheiben auf einer motorgetriebenen Spindel in einem Schutzgehäuse. Die Daten werden mit Lese-/Schreibköpfen magnetisch auf die Scheibe geschrieben und von ihr gelesen.

Verschiedene Implementierungen dieser Technologie sind erhältlich, die sich in Bezug auf Leistung, Kosten und Zuverlässigkeit unterscheiden.

  • Serial ATA (SATA): Diese Datenträger übertragen Daten seriell über zwei Leitungspaare. Ein Leitungspaar dient zur differenziellen Datenübertragung, das zweite Leitungspaar zum differenziellen Datenempfang. SATA-Laufwerke sind weit verbreitet in Desktop- und Laptop-Computern für Verbraucher. Typische SATA-Laufwerke bieten Übertragungsgeschwindigkeiten von 1500 bis 6000 MBit/s und sind im laufenden Betrieb austauschbar.
  • Small Computer Systems Interface (SCSI): Bei diesen Datenträgern erfolgt die Datenübertragung über eine gepufferte Peer-to-Peer-Schnittstelle mit Handshake. Viele SCSI-Geräte benötigen einen SCSI-Initiator, um SCSI-Transaktionen zwischen Host und SCSI-Ziel zu initiieren. SCSI-Datenträger sind in Workstations und Servern üblich und bieten einen Durchsatz von 40 bis 5120 MBit/s. iSCSI (Internet Small Computer System Interface) ermöglicht die Nutzung des regulären SCSI-Protokolls über TCP/IP bzw. GB-Ethernet.
  • Fibre Channel (FC): Dieser Nachfolger der parallelen SCSI-Festplatte ist in SAN-Speichergeräten üblich. Fibre-Channel-Signale können über eine elektrische Schnittstelle oder Glasfaserkabel übertragen werden. Der Durchsatz liegt zwischen 1 und 20 GBit/s, und die Verbindungen sind im laufenden Betrieb austauschbar.
  • Serial Attached SCSI (SAS): Diese Datenträger nutzen ein neues serielles Kommunikationsprotokoll und bieten schnellere Datenübertragungen als SATA-Datenträger. Der Durchsatz liegt zwischen 2400 und 9600 MBit/s.

SSDs (Solid State Disks) verwenden im Gegensatz zu herkömmlichen Festplatten Mikrochips, um Daten in nichtflüchtigen NAND-Flash- oder DRAM-Speicherchips zu speichern. Sie enthalten keine beweglichen Teile. SSDs sind weniger anfällig für physische Erschütterungen, haben eine geringere Zugriffszeit und Latenz und höhere E/A-Raten. SSDs sind deutlich leistungsstärker bei zufälligen Lesevorgängen. Ein SSD-Laufwerk kann 5000 bis 20.000 zufällige Lesevorgänge pro Sekunde durchführen. SSDs sind teurer pro Gigabyte (GB) und unterstützen im Verlauf ihrer Lebensdauer meist nur eine begrenzte Anzahl an Schreibvorgängen.

SSDs mit Flash-Speicher basieren auf MLC- oder SLC-Speicherzellen. SLC-Geräte speichern nur ein Datenbit pro Zelle. MLC-Geräte können mehrere Datenbits pro Zelle speichern. Flash-basierte SSDs kosten weniger als DRAM-basierte SSDs, sind jedoch auch langsamer. DRAM-basierte SSD-Geräte werden hauptsächlich verwendet, um Anwendungen zu beschleunigen, die durch die Latenz von Flash-SSDs oder herkömmlichen HDDs zurückgehalten würden.

Hohe Kosten, eine geringe Kapazität und der schnelle Verschleiß der Laufwerke verhinderten in der Vergangenheit den Einsatz von SSDs in Unternehmenslösungen. Eine verbesserte SSD-Technologie und sinkende Kosten machen sie heute vorteilhafter als HDDs. Hybridlaufwerke (SSHDs) kombinieren die Funktionen von SSDs und HDDs. Sie enthalten ein großes HDD-Laufwerk und einen SSD-Cache und verbessern so die Leistung häufig genutzter Daten.

Der Vergleich von SSDs und HDDs ist schwierig, da HDD-Benchmarks auf Leistungsaspekte wie Rotationslatenz und Suchzeit ausgerichtet sind. Da SSDs nicht rotieren, können sie in solchen Tests sehr gut abschneiden. SSDs haben jedoch Probleme mit gemischten Lese- und Schreibvorgängen, und ihre Leistung kann sich im Laufe der Zeit verschlechtern.

Die folgende Tabelle vergleicht die Übertragungsraten der gängigsten Speichertypen, die heute auf dem Markt erhältlich sind.

Technologie Rate (MBit/s)
iSCI über Fast Ethernet 100
Ultra2 Wide SCSI (16 Bit/40 MHz) 640
iSCI über Gigabit Ethernet 1000
SATA Rev. 3 6.000
SAS 3 9600
FCoE über 10 GbE 10.000
SATA Rev 3.2 - SATA Express 16.000
iSCI über Infiniband 32.000

SCSI- und SATA-Datenträger eignen sich am besten zum Speichern von Daten ohne hohe Leistungsanforderungen wie beim vDisk-Store von PVS. SAS-, Fibre Channel- oder SSD-Datenträger eignen sich am besten zum Speichern von Daten mit hohen Leistungsanforderungen wie beim Schreibcache von PVS.

Entscheidung: Speicherbandbreite

Die Speicherbandbreite beschreibt die Konnektivität zwischen Servern und dem Speichersubsystem. Ein gutes Verständnis der Bandbreitenanforderungen erleichtert die Wahl der richtigen Hardware für eine schnelle Bereitstellung von Daten und Anwendungen und verbessert die Benutzererfahrung. Für die meisten Rechenzentren sind Ethernet bzw. FCoE mit 10 GBit/s für Speicherverbindungen ausreichend. Kleinere Umgebungen benötigen möglicherweise nur eine Bandbreite von 1 GBit/s. In virtualisierten Umgebungen sind nicht nur die Bandbreitenanforderungen des physischen Hosts und des Speichersubsystems zu betrachten, sondern es muss auch der Bandbreitenbedarf jeder virtuellen Maschine berücksichtigt werden.

Zur Planung der erforderlichen Bandbreite sind die Durchsätze für jedes einzelne System zu ermitteln, das eine freigegebene Komponente oder einen Netzwerkpfad verwendet. Die folgenden Informationen gelten beispielsweise für eine Umgebung mit 100 ähnlichen virtuellen Maschinen (gehostet auf 10 Virtualisierungshosts und verbunden mit einem NAS-Head).

  Durchschnitt Spitzenwert
Durchsatz pro VM 10 MBit/s 30 MBit/s
Durchsatz pro Host 100 MBit/s (10 VMs x 10 MBit/s) 300 MBit/s (10 VMs x 30 MBit/s)
Durchsatz pro Speicher 1 GBit/s (10 Hosts x 100 MBit/s) 3 GBit/s (10 Hosts x 300 MBit/s)

Für die Speicherkommunikation benötigen Sie als Netzwerkkarte einen 1-GBit/s-Adapter, um Spitzenlasten zu bewältigen. Der NAS-Head und seine Netzwerkverbindung müssen für einen Datenverkehr von bis zu 3 GBit/s ausgelegt sein, um die Spitzenlast aller Systeme zu unterstützen.

Entscheidung: Mehrstufige Speicherverfahren

Eine Standardspeicherlösung erfüllt selten die Anforderungen von virtuellen Desktop-Implementierungen. Die Verwendung mehrerer Speicherebenen (Storage Tiering) bietet eine effektive Möglichkeit, mehrere Speicheroptionen anzubieten, die sich in Leistung, Skalierbarkeit, Redundanz und Kostenfaktor unterscheiden. Auf diese Weise können unterschiedliche virtuelle Workloads mit ähnlichen Speicheranforderungen in einem Kostenmodell zusammengefasst werden.

Eine XenDesktop-Implementierung mit mehreren Speichergruppen kann folgendermaßen aussehen:

  • Ebene 1: Schreibintensive Dateien wie Schreibcache und differenzierende Datenträger werden in einer Speichergruppe aus SSDs platziert.
  • Ebene 2: Geschäftskritische Daten oder Daten, die eine hohe Verfügbarkeit erfordern, werden in einer Speichergruppe aus preisgünstigeren Laufwerken mit hoher Leistung platziert.
  • Ebene 3: Selten verwendete Datendateien, schreibgeschützte Dateien oder andere nicht geschäftskritische Daten werden in einer Speichergruppe aus kostengünstigen Laufwerken mit geringerer Leistung platziert.

Entscheidung: Schlanke Speicherzuweisung

Mit schlanker Speicherzuweisung erhalten virtuelle Maschinen mehr Speicherplatz, als im Speicherrepository tatsächlich vorhanden ist. Die Speicherkosten werden gesenkt, indem virtuelle Maschinen auf Speicherplatz zugreifen, der häufig ungenutzt bleibt. Dies ist besonders für Maschinenerstellungsdienste von Vorteil, die virtuelle Maschinen über Linked Clones bereitstellen. Die schlanke Speicherzuweisung minimiert den Speicherbedarf für Masterimage-Kopien, mit denen virtuelle Maschinen erstellt werden. Die schlanke Speicherzuweisung ist auf der physischen Speicherschicht möglich (verfügbares Feature der meisten SAN-Lösungen) und auf der virtuellen Schicht. In NFS-basierten Speicherlösungen ist die schlanke Speicherzuweisung standardmäßig aktiviert.

Auf der physischen Speicherschicht müssen Sie sicherstellen, dass genügend Speicher vorhanden ist, damit virtuelle Maschinen auch dann verfügbar sind, wenn der verfügbare Speicherplatz durch Überbuchung ausgeschöpft ist. Unternehmen müssen entscheiden, ob die durch die schlanke Speicherzuweisung erzielte Kostenersparnis das damit verbundene Risiko überwiegen, bevor sie das Feature aktivieren.

Hinweis

Virtuelle Maschinen können funktionsunfähig werden, wenn der Speicherplatz ausgeschöpft ist. Daher ist es wichtig, ein Procedere festzulegen (mit Warnungen oder Benachrichtigungen), damit Administratoren genügend Zeit haben, weitere Datenträger zur Speicherlösung hinzuzufügen, um eine Beeinträchtigung der XenDesktop-Umgebung zu vermeiden.

Entscheidung: Datendeduplizierung

Datendeduplizierung ist eine Form der Datenkompression, bei der Duplikate durch einen Verweis auf eine einzelne Kopie des Originalelements ersetzt werden. Dies verbessert die Speicherauslastung und reduziert Speicherbedarf und Kosten. Die Speicherleistung kann jedoch beeinträchtigt werden.

Es gibt zwei Möglichkeiten zur Implementierung der Deduplizierung:

  • Deduplizierung mit Post-Processing: Die Deduplizierung erfolgt nach dem Schreiben der Daten auf den Datenträger. Die nachträgliche Deduplizierung sollte außerhalb der Geschäftszeiten geplant werden, um sicherzustellen, dass die Systemleistung nicht beeinträchtigt wird. Die nachträgliche Deduplizierung bietet minimale Vorteile für zufällige Desktops, da der Schreibcache/differenzierende Datenträger in der Regel täglich zurückgesetzt wird.
  • Deduplizierung mit Inline-Processing: Prüft Daten, bevor sie auf den Datenträger geschrieben werden, sodass keine Duplikate gespeichert werden. Die zusätzlich durchzuführenden Prüfungen können die Leistung verlangsamen. Eine solche Deduplizierung im laufenden Betrieb sollte sorgfältig überwacht werden, um sicherzustellen, dass sie die Leistung der XenDesktop-Umgebung nicht beeinträchtigt.

Wenn die Speicherlösung dies unterstützt, empfiehlt sich die Deduplizierung mit Post-Processing, um die XenDesktop-Leistung möglichst wenig zu beeinträchtigen.