設計手法ハードウェアレイヤー

このセクションでは仮想インフラストラクチャサーバー、仮想デスクトップ、および仮想アプリケーションホストのハードウェアサイジングについて説明します。これらのサーバーのサイジングは通常、2つの方法で行われます。

  • 1つ目は(これが好ましい方法ですが)、ワークロード要件に基づいて事前に計画を立ててハードウェアを購入する方法です。
  • 2つ目は、さまざまなワークロード要件をサポートするのに最適な構成で、既存のハードウェアを使用する方法です。

このセクションでは、この2つの方法に関して決定すべき事項について説明します。

決定する事項:ワークロードの分割

XenAppおよびXenDesktop環境を実装する場合、インフラストラクチャ、XenDesktop、およびXenAppのワークロードを専用のリソースクラスターに分割したり、同じ物理ホスト上に混在させたりできます。特にエンタープライズ環境では、リソースクラスターを使用してワークロードを分割することをお勧めします。各ワークロードにはオーバーコミット率やメモリ使用状況などの固有の要件があるため、これにより、優れたホストサイジングが可能になります。

リソースクラスターのコストが非常に高い小規模な環境では、極めて可用性の高い環境を可能にしながらワークロードを混在させることができます。Citrixでの主な手法はワークロードの分割ですが、コストベースのビジネス意思決定ではワークロードの混在が選択されます。

決定する事項:物理プロセッサ(pCPU)

次の表に、低、中、および高負荷のワークロードで物理コアごとにサポート可能な仮想デスクトップの数に関するガイダンスを示します。各デスクトップはシングル同時ユーザーに関連付けられています。オペレーティングシステムは最適化されているという前提です。

ユーザーワークロード

  • 低負荷
オペレーティングシステム 物理コアあたりのユーザー数
Windows 7 13
Windows 8 12
Windows 10 12
Windows 2008R2 18
Windows 2012R2 21
Windows 2016 21
オペレーティングシステム 物理コアあたりのユーザー数
Windows 7 10
Windows 8 9
Windows 10 9
Windows 2008R2 12
Windows 2012R2 14
Windows 2016 14
  • 高負荷
オペレーティングシステム 物理コアあたりのユーザー数
Windows 7 5
Windows 8 4
Windows 10 4
Windows 2008R2 6
Windows 2012R2 7
Windows 2016 7

「物理コアあたりのユーザー数」の概算は、Microsoft Office 2010を実行する基準の数です。この基準の数は、特定のインフラストラクチャ要件に基づいて調整する必要があります。一般的なガイドラインとして、サーバー密度を変更する基準となるのは次の特性です。

特性 サーバー密度の影響
ウイルス対策(最適化されていない) 25%減少
リアルタイム監視 15%減少
Office 2013 20%減少
Office 2016 25%減少
ハイパースレッド 20%増加

XenAppおよびXenDesktopのワークロードに必要な物理コアの総数を見積もるには、ユーザーグループごとに次の式を使用します:

ワークロード式の画像

∑は、すべてのユーザーグループの組み合わせ「i」の合計を表します。

Usersi = ユーザーグループあたりの同時ユーザー数

UsersPerCorei = 物理コアあたりのユーザー数

AV = ウイルス対策の影響(デフォルト = 0.25)

Mon = 監視ツールの影響(デフォルト = 0.15)

Off13 = Office 2013の影響(デフォルト = .2)

Off16 = Office 2016の影響(デフォルト = .25)

HT = ハイパースレッドの影響(デフォルト = .2)

ワークロードが分割される場合(XenAppとXenDesktopのワークロード)、式は2度計算されます。1度目はすべてのXenDesktopユーザーに対して、2度目はすべてのXenAppユーザーに対して、順番に計算されます。

決定する事項:物理メモリ(pRAM)

物理ホストに合わせてメモリをサイジングする方法として推奨されるのは、仮想マシンをサポートするのに必要な合計メモリとホストのCPU容量に基づいてサイジングする方法です。XenAppとXenDesktopに必要なメモリの合計を計算するには、仮想マシンの数に、仮想マシンに割り当てられているメモリの容量を掛けます。すべてのマシンカタログの合計が、XenAppおよびXenDesktopのホストに必要な合計RAMになります。これは以下の式で示されます。

ワークロード式の画像

∑は、すべてのユーザーグループの組み合わせ「i」の合計を表します。

VMi = ユーザーグループあたりの同時ユーザー数

vRAMi = 各仮想マシンに割り当てられているRAMの容量

ワークロードが別々のホストに分割される場合(XenAppとXenDesktopのワークロード)、式は2度計算されます。1度目はすべてのXenDesktopユーザーに対して、2度目はすべてのXenAppユーザーに対して計算されます。

決定する事項:物理ホスト(pHost)

ほとんどの場合、XenAppおよびXenDesktopのワークロードをサポートするための物理ホスト(pHost)の数は、使用可能なプロセッサコアの数に制限されます。次の式は、ユーザーワークロードに必要なホスト数の概算を示しています。推奨されるCPUオーバーコミット率がそれぞれ異なるため、この式はXenAppワークロードとXenDesktopワークロードを分割するベストプラクティスに基づいています。

XenDesktop pHosts =(XenDesktop pCPUの合計/pHostあたりのコア数+1)

XenApp pHosts =(XenApp pCPUの合計/pHostあたりのコア数+1)

プロセッサコアに基づいて物理ホストの数が決定すると、各ホストのRAMの容量が計算されます。

pHostあたりのXenDesktop pRAM = HypervisorRAM +(XenDesktop pRAMの合計/XenDesktop pHost -1)

pHostあたりのXenAPP pRAM = HypervisorRAM +(XenApp pRAMの合計/XenApp pHost -1)

決定する事項:GPU

グラフィカルワークロードの提供に使用されるホストには、最高のユーザーエクスペリエンスを提供するために、グラフィックプロセッサが必要となります。HDX 3D Proを使用してハイエンドグラフィックをサポートするには、特定のハードウェアホストとグラフィックカードが必要です。テスト済みハードウェアの最新リストは、ナレッジベースの記事にあります。ハイエンドグラフィックのユーザーのデスクトップやアプリケーションホストのサイジングは、GPU要件に基づいて決定し、そのホストにワークロードをサポートするための十分なCPUとメモリリソースを確保します。

vGPUプロファイルでNVIDIA GRIDカードを利用して、複数のユーザーをサポートできます。以下の表に、NVIDIAのサイジングガイドラインを示します。

表では、 Yは、アプリケーション証明書が使用できることを示します。

NVIDIA GRIDグラフィックボード 仮想GPUプロファイル アプリケーション認定 グラフィックメモリ ユーザーあたりの最大ディスプレイ数 ディスプレイあたりの最大解像度 グラフィックボードあたりの最大vGPU 使用例
GRID K2 K280Q Y 4,096MB 4 2560 x 1600 2 デザイナー
  K260Q Y 2,048MB 4 2560 X 1600 4 デザイナーまたはパワーユーザー
  K240Q Y 1,024MB 2 2560 x 1600 8 デザイナーまたはパワーユーザー
  K220Q Y 512MB 2 2560 x 1600 16 ナレッジワーカー
  K200   256MB 2 1900 x 1200 16 パワーユーザー
GRID K1 K180Q Y 4,096MB 4 2560 x 1600 4 パワーユーザー
  K160Q Y 2,048MB 4 2560 x 1600 8 パワーユーザー
  K140Q Y 1,024MB 2 2560 x 1600 16 パワーユーザー
  K120Q Y 512MB 2 2560 x 1600 32 パワーユーザー
  K100   256MB 2 1900 x 1200 32 ナレッジワーカー

ストレージサイジング

決定する事項:ストレージアーキテクチャ

主なストレージアーキテクチャは次のとおりです:

  • ローカルストレージ - コンピューターシステムに直接接続されているハードディスクを使用します。ディスクは他のコンピューターシステムと共有できませんが、コンピューターで、プールされた共有デスクトップまたはホストされた共有デスクトップをホストしている場合、共有ストレージソリューションは必要ありません。多くの場合、ローカルストレージは共有ストレージと同様に機能します。スケーラビリティは、コンピューターシステムで使用可能なドライブベイの数に制限されます。たとえば、多くのブレードサーバーにはドライブベイが2つしかないため、XenDesktop環境のサポートにローカルストレージを使用するのは最適ではない場合があります。
  • DAS - ケーブルを使用してサーバーまたはワークステーションに直接接続されたストレージサブシステム。ブロックレベルストレージを使用します。コンピューターシステムのローカルなハードディスクにすることも、または外部ケーブルで接続された複数のディスクを持つディスクシェルフにすることもできます。ローカルディスクとは異なり、ディスクシェルフは個別の管理が必要です。ストレージシェルフを複数のサーバーに接続して、データやディスクを共有することができます。
  • NAS - ネットワークファイル共有により、コンピューターシステムにファイルレベルストレージを提供します。NASはファイルサーバーとして動作します。NASシステムは、論理的な冗長ストレージコンテナまたはRAIDアレイに通常配置される1つ以上のハードドライブを含むネットワークアプライアンスです。アクセスは通常、標準のイーサネットとネットワークファイル共有プロトコル(NFS、SMB/CIFS、またはAFPなど)を使用して提供されます。

NASは単一障害点になる可能性があります。ネットワーク共有が使用できなくなると、ディスクからストリーミングされたすべてのターゲットデバイスも使用できなくなります。

  • SAN - 統合されたブロックストレージへのアクセスを提供する専用ストレージネットワーク。SANを使用すると、コンピューターをさまざまなストレージデバイスに接続できるため、サーバーはストレージサブシステムを所有せずにデータを複数のコンピューターで共有できます。SANは通常、標準的な方法でネットワークからアクセスできない、ストレージデバイスの専用ネットワークを備えています。デバイスをSANネットワークに接続するには、ホストバスアダプタ(HBA)と呼ばれる特殊なアダプタが必要です。SANは非常にスケーラブルで、接続されるストレージやデバイスが増えてもパフォーマンスが大きく変わることはありません。SANは、技術の習得、展開、管理に必要な資本と時間の両面で、コストのかかる投資になる可能性があります。
  • ハイブリッド - NASヘッドとは、オンボードストレージを持たず、SANに接続されるNASのことをいいます。実際には、それはファイルレベルのNASプロトコル(NFS、CIFSなど)とブロックレベルのSANプロトコル(ファイバチャネルとiSCSI)間の変換ツールとして機能します。そのため、2つの技術の利点を組み合わせ、ホストバスアダプタ(HBA)のないコンピューターを中央ストレージに接続できます。

次の表では、使用可能なストレージオプションをまとめ、XenDesktop環境への適合性を評価しています。

ストレージプロパティ ローカル DAS NAS SAN
実装コスト
管理
パフォーマンス 中~高 中~高
冗長性 低~中 中~高 中~高
スケーラビリティ 中~高 中~高
一般的なユースケース 中小規模の実稼働環境とテスト環境 中小規模の実稼働環境 中小規模の実稼働環境 大中規模の実稼働環境

Hyper-V 2008 R2はNASテクノロジをサポートしていません。Hyper-V2012または2012 R2は、SMB 3.0プロトコルをサポートするNASソリューションのみをサポートします。詳細については、ハンドブックの「HyperV 2008 R2」と「Hyper-V 2012 R2」セクションを参照してください。

ローカルストレージは、高可用性の要件のない仮想マシン、またはランダム(プールされた)デスクトップやホストされた共有デスクトップなど、永続データが保存されていない仮想マシンの保存に最適です。ローカルとDASは、ユーザーデータとホームディレクトリファイルの保存に適しています。Machine Creation Servicesを使用している場合は、マスターイメージとアップデートを各サーバーに複製する必要があります。

NASおよびSANストレージは、XenDesktop環境をサポートするインフラストラクチャサーバーや、静的(専用)デスクトップなどの永続データが保存された仮想マシンに最適です。

決定する事項:RAIDレベル

最適なRAIDレベルを選択するには、RAIDレベルの個別の性能と合わせて、特定のアプリケーションやワークロードのIOPSや読み取り/書き込み率を考慮する必要があります。Provisioning Services vDiskストアなどの読み取りの多いワークロードをホストする場合は、RAID 1、5、6、10などの読み取り操作に最適化されたRAIDレベルが最適です。これは、これらのRAIDレベルでは、読み取り操作をRAIDセット内のすべてのディスクに同時に分散できるためです。

Provisioning Servicesの書き込みキャッシュやMachine Creation Servicesの差分ディスクなど、書き込みの多いワークロードをホストする場合は、書き込みに最適化され、書き込みペナルティの低いRAID 1または10などのRAIDレベルが最適です。

次の表に、最も一般的に使用されるRAIDレベルの主な量的属性の概要を示します:

RAID 容量(%) フォールトトレランス 読み取りパフォーマンス 書き込みパフォーマンス 最小ディスク数
0 100 なし 最高 高い(書き込みペナルティ1) 2
1 50 シングルドライブエラー 最高 中(書き込みペナルティ2) 2
5 67 - 94 シングルドライブエラー 低(書き込みペナルティ4) 3
6 50 - 88 デュアルドライブエラー 低(書き込みペナルティ6) 4
10 50 各サブアレイでのシングルドライブエラー 最高 中(書き込みペナルティ2) 4

書き込みペナルティは、アプリケーションの書き込み要求ごとに複数のディスクI/O要求が必要なRAIDデータ保護技術に固有のものです。最小(ミラーアレイ)から最大(RAIDレベル5と6)で表します。

決定する事項:ディスク数

必要なディスク数を決定するには、各ディスクのパフォーマンス特性、RAIDレベルの特性、および特定のワークロードのパフォーマンス要件を把握することが重要です。必要なディスク合計数を決定するための基本的な計算は、次のとおりです:

ディスク合計数 = 読み取りIOPS合計 +(書き込みIOPS合計 x RAIDペナルティ)/DiskスピードIOPS

たとえば、あるディスク製造元は、開発した特定のディスクアレイのワークロードIOPS合計が2000であると報告しています。ディスクあたりのRAW IOPSは175です。RAID 10で読み取り操作が20%、書き込み操作が80%のワークロードをサポートするのに必要なディスク数を決定するには、次の手順を実行します:

ディスク合計数 = ((20% x 2000)+(80% x 2000)x 2)/175 = 20.57、つまり21ディスク

前の例に基づいて、次の表に、RAIDレベルと読み取り/書き込み率によってディスク数がどのように変わるかを示します。

RAID RAW IOPS(ディスクあたり) ワークロードIOPS 読み取り率 書き込み率 ディスク数
0 175 2000 20 80 12
  175 2000 80 20 12
1/10 175 2000 20 80 21
  175 2000 80 20 14
5 175 2000 20 80 39
  175 2000 80 20 19

決定する事項:ディスクタイプ

ハードディスクドライブ(HDD)は、従来からあるディスクドライブです。このタイプのディスクは、保護筐体内の電動スピンドル上の回転するプラッタで構成されています。読み取り/書き込みヘッドにより、プラッタに対して磁気的にデータが書き込みおよび読み取りされます。

この技術が実装されたさまざまなタイプが市場に提供されており、それらはパフォーマンス、コスト、および信頼性の点で異なります。

  • シリアルATA(SATA)ディスクは、2対の導体を介してデータを順次送信します。一方のペアはデータの差動伝送用で、もう一方のペアはデータの差動受信用です。SATAドライブは、消費者向けのデスクトップコンピューターやラップトップコンピューターに広く見られます。一般的なSATAドライブは、伝送速度が1500~6000Mbpsで、仕様上ホットスワップをサポートしています。
  • Small Computer Systems Interface(SCSI)ディスクは、デバイス間でハンドシェイク信号を使用するバッファ付きピアツーピアインターフェイスを使用します。多くのSCSIデバイスでは、ホストとSCSIターゲット間のSCSIトランザクションを開始するためのSCSIイニシエータが必要となります。SCSIディスクはワークステーションやサーバーでよく見られ、スループットは40~5120Mbpsです。iSCSI(Internet Small Computer System Interface)は、TCP/IP上での通常のSCSIプロトコルのマッピングで、ギガビットイーサネット上よりも一般的です。
  • ファイバチャネル(FC)ディスクは、パラレルSCSIディスクの後継で、SANストレージデバイスでよく見られます。ファイバチャネル信号は、電気的インターフェイスまたは光ファイバーケーブルで動作できます。スループットは1~20Gbpsで、接続はホットプラグ可能です。
  • シリアル接続SCSI(SAS)ディスクは、SATAディスクよりも高速のデータ伝送を可能にする新世代のシリアル通信プロトコルを使用しています。スループットは2400~9600Mbpsです。

ソリッドステートディスク(SSD)は、従来のハードディスクとは異なり、マイクロチップを使用してNAND不揮発性メモリチップ(フラッシュ)かDRAMのいずれかにデータを保持します。可動部はありません。SSDは物理的な衝撃の影響を受けにくいほか、アクセス時間と待ち時間が短く、高いI/O率を実現します。SSDのランダム読み取りパフォーマンスはかなり高くなっています。SSDドライブは、どこからでも毎秒5,000から20,000のランダム読み取りが可能です。また、SSDはギガバイト(GB)あたりのコストが高く、通常、ディスクの耐用年数全体でサポートされる書き込み数が制限されます。

フラッシュメモリベースのSSDは、マルチレベルセル(MLC)かシングルレベルセル(SLC)のいずれかに基づいています。SLCデバイスは、各セルに1ビットの情報しか保存できません。MLCデバイスは、各セルに複数ビットの情報を保存できます。フラッシュベースのSSDはDRAMベースのSSDよりも低コストですが、実行速度は遅くなります。DRAMベースのSSDデバイスは、フラッシュSSDや従来のHDDの遅延によって抑制されていたアプリケーションの速度を高速化するために主に使用されます。

ドライブのコストが高く、容量が小さく、消耗が早いために、SSDはこれまでエンタープライズストレージソリューションには適していませんでした。SSD技術の向上と低コスト化により、SSDはHDDよりも優れたドライブになりつつあります。ソリッドステートハイブリッドドライブ(SSHD)はSSDとHDDの機能を組み合わせたもので、大容量のHDDドライブとSSDキャッシュを組み合わせることで、頻繁にアクセスされるデータのパフォーマンスを向上させます。

HDDのベンチマークは回転待ち時間やシーク時間などのパフォーマンスの側面の検出に重点が置かれるため、SSDとHDDを比較するのは困難です。SSDは回転やシークがないため、そのようなテストでは大きな優位性を示す可能性があります。ただし、SSDには読み取りと書き込みが混在するという課題があり、パフォーマンスが時間の経過とともに低下する可能性があります。

次の表は、現在市場に提供されているより一般的なタイプの一部のストレージの伝送速度を比較したものです。

技術 速度(MBps)
ファストイーサネット上のiSCSI 100
Ultra-2ワイドSCSI(16ビット/40MHz) 640
ギガビットイーサネット上のiSCSI 1,000
SATA rev 3 6,000
SAS 3 9,600
10GbEを超えるFCoE 10,000
SATA rev 3.2 - SATA Express 16,000
InfiniBand上のiSCSI 32,000

SCSIディスクとSATAディスクは、PVS vDiskストアのように高いパフォーマンス要件のないデータの保存に最適です。SAS、ファイバチャネル、またはSSDドライブは、PVS書き込みキャッシュのように高いパフォーマンス要件のあるデータを保存するのに最適です。

決定する事項:ストレージ帯域幅

ストレージ帯域幅は、サーバーとストレージサブシステムとの間の接続性を示します。帯域幅の要件を把握しておくと、優れたエンドユーザーエクスペリエンスを実現するスピードでデータやアプリケーションを提供するために適切なハードウェアを決定するのに役立ちます。ほとんどのデータセンターでは、ストレージ接続には10Gbpsイーサネットまたは10Gbps FCoEで十分です。ただし、小規模な環境では帯域幅が1Gbpsしか必要ない場合もあります。仮想化環境では、物理ホストとストレージサブシステムの帯域幅要件を検討することだけでなく、各仮想マシンが機能するのに必要な帯域幅を判別することも重要です。

必要な帯域幅について計画するには、共有コンポーネントまたはネットワークパスを使用する個別のシステムごとのスループットを判別する必要があります。たとえば、類似の仮想マシンが100台ある環境の場合には、以下の情報が提供されます(10台の仮想化ホストでホストされ、1台のNASヘッドに接続)。

  平均 ピーク
VMあたりのスループット 10MBps 30MBps
ホストあたりのスループット 100MBps(10VM x 10MBps) 300MBps(10VM x 30MBps)
ストレージあたりのスループット 1GBps(10台のホスト x 100MBps) 3GBps(10台のホスト x 300MBps)

ピーク負荷を処理するには、ストレージ通信に使用されるNICが1Gbpsのアダプタである必要があります。NASヘッドとそのネットワーク接続では、すべてのシステムのピーク負荷をサポートするために3Gbps相当のデータトラフィックをサポートする必要があります。

決定する事項:階層ストレージ

汎用的なストレージソリューションが、ほとんどの仮想デスクトップ実装の要件を満たすとは思えません。ストレージ階層の使用により、パフォーマンス、スケーラビリティ、冗長性、およびコストによって差別化されるさまざまなストレージオプションを提供するための効果的なメカニズムが提供されます。このように、類似のストレージ要件を持つ異なる仮想ワークロードをまとめ、類似のコストモデルを適用することができます。

たとえば、階層ストレージを使用したXenDesktopの実装は、次のようになります:

  • Tier 1ストレージグループ - 書き込みキャッシュや差分ディスクなどの書き込みの多いファイルは、SSDで構成されるストレージグループに配置されます。
  • Tier 2ストレージグループ - ミッションクリティカルなデータ、つまり高可用性が必要なデータは、安価な高パフォーマンスのドライブで構成されるストレージグループに配置されます。
  • Tier 3ストレージグループ - 使用頻度の低いファイル、読み取り専用ファイル、その他のミッションクリティカルでないデータは、低コストで低パフォーマンスのドライブで構成されるストレージグループに配置されます。

決定する事項:シンプロビジョニング

シンプロビジョニングを使用すると、ストレージリポジトリで実際の使用可能領域よりも大きなストレージ領域を仮想マシンに提供できます。これにより、通常使用されていないディスクスペースに仮想マシンがアクセスできるようになり、ストレージコストが削減されます。これは、リンククローン手法を使用して仮想マシンをプロビジョニングするMachine Creation Servicesで特に有益です。シンプロビジョニングは、仮想マシンの構築に使用されるマスターイメージコピーに必要なストレージ領域を最小限に抑えます。シンプロビジョニングは物理ストレージレイヤー(通常ほとんどのSANソリューションで使用できる機能)と仮想レイヤーで可能です。NFSベースのストレージソリューションでは、通常、デフォルトでシンプロビジョニングが有効になります。

物理ストレージレイヤーでは、使用可能なディスクスペースが使い果たされたときに、ストレージの「オーバーコミット」で仮想マシンが使用できなくなるリスクを防ぐために、十分なストレージを使用できるようにしておくことが重要です。組織は、コスト削減のシンプロビジョニングが関連するリスクを上回るかどうかを判断し、ストレージソリューションでサポートされる場合、シンプロビジョニングを有効にすることを検討する必要があります。

ディスクスペースが使い果たされると仮想マシンが機能しなくなる可能性があるため、XenDesktop環境に影響を与えないように、アラートか通知のプロセスを準備して、管理者がストレージソリューションにディスクを追加するための十分な時間を確保できるようにすることが重要です。

決定する事項:データ重複排除

データ重複排除は、重複データが元の項目の単一コピーへのポインターに置き換えられるデータ圧縮技術です。これにより、ストレージの使用率が向上し、ストレージの要件とコストが削減されますが、ストレージのパフォーマンスに影響が出る可能性があります。

使用可能な重複排除の実装は2つあります:

  • 後処理重複排除 - データがディスクに書き込まれた後に重複排除を実行します。システムのパフォーマンスに影響を与えないように、後処理重複排除は営業時間外にスケジュール設定する必要があります。通常、書き込みキャッシュまたは差分ディスクは毎日リセットされるため、ランダムデスクトップでは後処理重複排除の利点が最も小さくなります。
  • インライン重複排除 - 重複ブロックが保存されないように、データがディスクに書き込まれる前にデータを調べます。データがディスクに書き込まれる前に追加のチェックを実行すると、パフォーマンスが低下することがあります。インライン重複排除を有効にした場合には、入念に監視して、XenDesktop環境のパフォーマンスに影響を与えていないことを確認する必要があります。

ストレージソリューションでサポートされている場合には、XenDesktopのパフォーマンスへの影響を最小限に抑えるために、後処理データ重複排除を有効にすることが推奨されます。