このドキュメントの目的は、Citrix Virtual Apps and Desktops (CVAD) を Azure VMware ソリューション (AVS) にデプロイしようとしている企業にアーキテクチャガイダンスを提供することです。このガイドでは、以下のトピックについて説明します。
アーキテクチャ
導入ガイダンス
スケーラビリティガイダンス
移行ガイダンス
このドキュメントでは、Citrix Virtual Apps and DesktopsのワークロードをAVSに移行するための一般的なガイダンスとベストプラクティスを提供します。
このアーキテクチャは、Citrix Virtual Apps and Desktopsサービス (Citrix DaaS)、Microsoft Azure、および Azure VMware ソリューション (AVS) で構成されています。
Citrix Virtual Apps and Desktopsサービスは、Windows、Linux、Web、またはSaaSアプリケーションとデスクトップをあらゆるデバイスに安全に配信します。安全なデスクトップとアプリケーションの提供は、今日のモダンなデジタルワークスペースを強化します。Citrix Virtual Apps and Desktopsは、高度な管理とスケーラビリティを提供します。Citrix、あらゆるネットワーク上でリッチなマルチメディア体験を提供でき、ユニバーサルデバイスサポートを備えたセルフサービスアプリケーションを提供します。Citrix、ラップトップ、タブレット、スマートフォン、PC、Macなど、さまざまなモバイルエンドポイントをサポートしています。
ハイブリッドクラウドソリューションとして利用できるCitrix DaaSでは、エンタープライズクラウド戦略に最適なワークロード展開オプションを選択できます。Citrix DaaSをAzureに導入すると、IT部門はパブリッククラウドの伸縮自在な規模でインフラストラクチャサービスを柔軟に提供できます。この伸縮自在性により、現在の投資をオンプレミス環境から Azure に簡単に拡張および統合できます。
テストワークロードの制御と管理には、Citrix Cloud 仮想アプリケーションおよびデスクトップサービスを使用しました。数字は特に、シトリックスのサーバーOS仮想配信エージェント(VDA)を実行する単一の仮想マシンインスタンスのスケーラビリティとパフォーマンスに焦点を当てています。
Microsoft Azure は、Microsoft が管理するデータセンター全体にアプリケーションを迅速にデプロイできる、信頼性が高く柔軟なクラウドプラットフォームです。Azure Cloud Services で Citrix DaaS ワークロードをプロビジョニングすることで、企業は内部インフラストラクチャにかかる費用を回避できます。代わりに、ユーザーワークロード用のコンピューティング、ネットワーク、およびストレージリソースを Microsoft に任せることができます。
AVS には以下の制限があります。
プライベートクラウドあたりのクラスタ数:12
クラスタあたりの最大ホスト数:16
クラスタあたりの最小ホスト数:3
プライベートクラウドあたりの最大ホスト数:96
プライベートクラウドあたりの vCenter: 1
vSAN の容量制限:総使用可能容量の 75%
Azure VMware Solution は、専用のベアメタル Azure サーバ上に構築された vSphere クラスタを含む、マネージド型の VMware ソフトウェア定義データセンター (SDDC) です。最小導入は 3 ノード (ホスト) で、SDDC クラスタあたり最大 16 ノードです。SDDC のすべてのデプロイには、管理用の vCenter サーバ、Azure ベースのストレージを備えた vSAN、vSphere ホスト、ネットワーク用の NSX-T が含まれます。SDDC は、サービスの料金に含まれる内部の Express Route 接続を介して Azure テナントに接続されます。インフラストラクチャとソフトウェアはMicrosoft が管理し、SDDC で実行されるワークロードはお客様が管理します。
AVSは完全なVMwareデプロイメントであるため、オンプレミスのVMwareデータセンターと同じスキルとプロセスを使用してAVSデプロイを管理できます。Azure VMware ソリューション (AVS) の使用には次の利点があります。
クラウド移行サポート:最大 500 台の VM の同時レプリケーションを含め、デスクトップとアプリケーションを VMware 環境間で簡単に移行できます
使い慣れた管理:管理者は VMware のインターフェイスに精通しており、管理ツールとインターフェイスに慣れている
データセンターの拡張:需要の高い時期、災害復旧、または事業継続の時期には、バースト可能なキャパシティと遠隔地を使用する
Azure VMware ソリューション (AVS) を使用して、オンプレミスデータセンターの vSphere でプロビジョニングするのと同じように、Citrix VDA ワークロードをプロビジョニングします。
このセクションでは、AVS 環境のアーキテクチャの概要を説明し、高レベルのガイダンスを提供します。ここでは、AVS SDDC内でCitrix環境を構築し、オンプレミスのデータセンターをCitrix Cloudに接続する方法を示します。
以下の図は、AVS SDDCにCitrix VDAホストがあるAVS環境のアーキテクチャを示しています。このアーキテクチャでは、オンプレミスデータセンターへの ExpressRoute 接続を使用します。
図:Azure VMware ソリューションエクスプレスルートアーキテクチャ
オンプレミスのデータセンターで ExpressRoute 接続を利用できない場合は、サイト間 VPN と仮想 WAN を使用して AVS SDDC に接続します。下の図は、サイト間 VPN アーキテクチャを示しています。
図:Azure VMware サイト間 VPN アーキテクチャ
Citrix Virtual Apps and DesktopsサービスはAVSをサポートしています。Azure VMware ソリューションは、Azure インフラストラクチャによって作成された vSphere クラスタを含むクラウドインフラストラクチャを提供します。オンプレミス環境でvSphereを使用するのと同じ方法で、Citrix DaaSとAVSを使用してVDAワークロードをプロビジョニングします。
Azure での AVS ソリューションの詳細なデプロイについては、 こちらをご覧ください。このセクションには、移行を正常に行うための大まかな手順とその他の情報が含まれています。
デプロイは以下のステップで構成されます。
ホストクォータのリクエスト:
AAzure Portal サポートリクエストを通じて完了しました。
Azure エンタープライズ契約が必要です。
完了するまでに最大 5 日かかります。
Microsoft.AVS リソースプロバイダーを登録します。
Azure VMware ソリューションプライベートクラウドの作成:
Azure Portal を通じて作成された新しいリソース (Azure VMware ソリューション)。
AVS リソースを保持するには、新しいリソースグループを使用することを推奨します。
IP アドレス空間には最低 /22 CIDR ブロックを使用し、ネットワーク内の既存のアドレス空間と重複しないようにしてください。
ここで仮想ネットワークを指定しないでください。ExpressRoute (ER) は後で追加します。
クラスタに追加するには 3 ~ 4 時間かかり、新しいホストは 30 ~ 45 分かかります。
Azure VMware ソリューションプライベートクラウドへのアクセス:
環境にアクセスするための要塞ホストとして使用できる Windows 仮想マシンを作成します。
要塞ホストを使用して AVS vCenter と NSX-T Manager に接続し、設定とセットアップを続行します。
NSX-T で DHCP を有効にして、仮想マシンが起動時に自動的に IP アドレスを取得できるようにします。
NSX-T がサーバをホストできるようにするか、DHCP リレーアドレスを追加します。
NSX-T でネットワークセグメントを設定します。これは Azure Gateway サブネット上にある必要があります。
DHCP と DNS の設定を行います。
オンプレミスのデータセンターを Azure に接続
ExpressRoute 接続を使用している場合は、AVS ExpressRoute が使用する仮想ゲートウェイに接続します。
サイト間 VPN またはポイントツーサイト VPN を使用する場合は、 こちらの手順に従って仮想WAN を作成します。
Azure VMware ソリューション環境の検証:
PING を実行して、オンプレミスのデータセンターと AVS SDDC 間の接続を確認します。
Azure サブネットと AVS SDDC の間で ping を実行します。
AVS VMがインターネットにアクセスできるようにします。
Citrix インフラストラクチャ VM の導入:
オンプレミスドメインに参加するためのドメインコントローラー。
AVS 環境を Citrix Cloud にリンクする 2 つの Citrix Cloud コネクタ。
AVS SDDC を構築する際には、以下のベストプラクティスと推奨事項が提供されます。
AVS ゲートウェイには 4 バイトの自律システム番号 (ASN) が必要です。
AVS リソースには、デフォルトではインターネットアクセスは許可されません。
AVSには、クラウドまたはオンプレミスのすべてのものと重複しない、RFC 1918に準拠した最低/22のサブネット範囲が必要です。
Azure VNet と GatewaySubnet という名前のゲートウェイサブネット (/27 以上) が必要です。
もう 2 つのサブネットを定義します。1 つは要塞ホスト用のサブネットです。Azure Bastion サービス用の 1 つのサブネット。AzureBastionSubnet という名前を付ける必要があります。
AVS上で実行されるすべてのワークロードには、DHCPサービスとDNSサービスの両方が必要です。AVSはこれらのサービスを自動的に提供することはできません。
1 年と 3 年の価格で購入することで、コストを削減できます。
次のリソースには料金が発生します。
3ノードクラスターの容量を決定するために、各AVSノードにCitrix 共有デスクトップホストをロードし、2つのワークロードを実行しました。テストに使用した 2 つのワークロードを以下に示します。
タスクワーカーワークロード:このワークロードには、Microsoft Office 2016 Outlook、Word、Excel、およびInternet Explorer、Adobe Acrobat、PDF Writer のセグメントが含まれます。Task Worker ワークロードは、環境に高い需要を課さず、システムに頻繁にアクセスしないユーザーを表します。
ナレッジワーカー (2 vCPU) ワークロード:このワークロードには、タスクワーカーのワークロードに加えて PowerPoint 2016、FreeMind、PhotoViewer、Doro PDF Writer、およびいくつかの 360p ムービーが含まれます。ナレッジワーカーのワークロードは環境への要求を高め、システムに頻繁にアクセスするユーザーを代表します。
デュアル vCPU ナレッジワーカープロファイルは、ユーザー密度の下限を提供します。軽量なシングル vCPU タスクワーカープロファイルは、ユーザー密度の上限を提供します。これら 2 つの限界は、ユーザー密度の期待される範囲です。
Login VSIは、エンドユーザーコンピューティングおよびアプリケーション市場向けのベンチマークおよび負荷テストにおける業界標準です。Login VSI のワークロードは、Citrix、Microsoft、VMware が提供する VDI およびサーバベースのコンピューティングソリューション専用に開発されています。Login VSI を使用すると、デスクトップとアプリケーションのパフォーマンスを最大化しながら、最小限のコストで本番環境の規模を適正化できます。このテスト環境では、Login VSI バージョン 4.1.40 を使用して、VMware 3 ノードクラスタに対してシミュレートされたタスクワーカーセッションとナレッジワーカーセッションを作成しました。ログインエンタープライズの詳細については、次を参照してください。 https://www.loginvsi.com
セッションを正常に完了したユーザーの数は、実際の状況下での重要なパフォーマンス指標となります。この値は VSImax セッションカウントと呼ばれ、比較分析に使用されます。テストの開始時には、システム上の1人のユーザーのみのベースライン値が取得されます。ログインVSIワークロードは、ユーザー応答時間がベースライン値を大幅に上回ったことを観察して、VSImaxセッション数を計算します。
Citrix VDAホストは、3ノードクラスタ上のAVS環境で構築されました。各クラスタノードは、18コアのインテルXeonゴールド6140 2.30 GHz CPUと512 GiB RAMを搭載したDell PowerEdge R640サーバでした。Citrix Cloud ConnectorとログインVSIランチャーはAzure仮想ネットワークにインストールされました。ランチャー上のCitrix Workspaceクライアントは、内部のExpressRoute接続を介してVDAホストに接続していました。ラボセットアップの図を以下に示します。
図:ログイン VSI AVS ラボ環境
すべてのテストランでは、Citrix ポリシー、Windows Server 2019、Office 2016、および Windows Defender のデフォルトのインストール設定が使用されました。
すべてのテストでは、Windows Server 2019とCitrix Server OS VDAバージョン2106のホスト型共有デスクトップモデルが使用されました。まず、最も効率的な vCPU とメモリ構成を特定するために、シングルサーバースケーラビリティ (SSS) に注目しました。SSSの結果を使用して、3ノードクラスタ上のユーザーを最大化するための最適な構成を選択しました。システム上のユーザー数を最大化するための最善の方法を決定した後、Login VSI を使用して可能な限り最大の負荷を生成しました。
これらのテストは、3 ノードクラスタで想定されるおおよそのユーザー数を特定するのに役立ちます。結果はさまざまで、作業負荷に大きく影響されます。ご自身でワークロードをテストし、そのワークロードに最適な構成を選択することを強くお勧めします。
このセクションでは、ラボ環境内でAVSで実行されるスケーラビリティテストについて説明します。LoginVSIを使用して、一般的な3つのVDAホスト構成の予想ユーザー数を調べました。タスクワーカープロファイルの結果は次のとおりです。
構成 | vsiMax ユーザー | コアあたりのユーザー数 |
---|---|---|
4 vCPU 16 GiB RAM | 18 | 4.5 |
8 vCPU 16 GiB RAM | 30 | 3.75 |
8 vCPU 24 GiB RAM | 34 | 4.25 |
表:vsiMax シングルサーバースケーラビリティの結果
SSS テストの結果によると、コンピューティングリソースの最も効率的な使用は 4vCPU x 16 GiB の RAM 構成でした。この情報を使用して、3 ノードクラスタをロードするための VM 密度を決定しました。200個のvCPUを使用して50台の4vCPU VDAホストを構築しました。次に、クラスターの負荷テストを実行して、この構成のクラスターのスケーラビリティを判断しました。負荷テストの結果を以下の表に示します。
構成 | タスクワーカー | ナレッジワーカー |
---|---|---|
シングルサーバ (4xCPU 16 GiB RAM) | 18 | 13 |
3ノードクラスタ上に50台の仮想マシン(Citrix VDA) | 602 | 378 |
表:16 GiB RAM を搭載したサーバー 2019 4vCPU のプロファイルタイプ別の VSI 最大スコア
ブログ「5 と 10 のルール」では、オンプレミスデータセンターの SSS ガイダンスを提供しています。4vCPUの結果は、物理コアあたり約10人のCVADセッションユーザーという彼の推奨と一致しています。4つのvCPUでは、Citrix セッションホストごとに2つの物理コア(4つのハイパースレッドコア)を使用していました。10というルールを適用すると、VMあたり約20人のユーザーが得られ、vsiMaxが18の場合はブログに記載されているマージンの範囲内です。AVSはオンプレミスのデータセンターで想定しているのと同じVMwareノードを使用しているため、これらの結果は予想どおりです。
以前のスケーラビリティテストによると、同じホスト上で複数のVMが並行して実行されている場合、1つのVMが必ずしも直線的に拡張されるとは限りません。タスクワーカーでは、900人(18×50)のユーザーに近づくと予想していましたが、vsiMaxは602人を獲得しました。ナレッジワーカーでは、約650(13 x 50)に達すると予想していましたが、最も多く観察されたのは378でした。
注:実行中のすべてのセッションを起動してログオンできました。しかし、ユーザーエクスペリエンスは大幅に低下し、vsiMaxの推奨ユーザー数はセッション数の約3分の2でした。
このセクションでは、テスト実行が行われた時点の VMware パフォーマンスグラフを提供します。参考として、Windows サーバ仮想マシンとクラスタノードの両方を示します。LVS-SVR-25は50台のWindowsサーバを表し、ESX17-R16はクラスタノードを表します。パフォーマンスのボトルネックとなる最も一般的な4つの領域、CPU、メモリ、ディスク、ネットワークを確認します。
CPUグラフには、Windowsサーバ仮想マシンとクラスタノードの両方で使用可能なキャパシティに基づく平均CPU使用率が表示されます。単一サーバーのピークは 85% を下回り、ノードのピークは約 97% です。ただし、これらのグラフは両方とも、VMwareコンソールでは確認できなかった最大CPU使用率ではなく、平均CPU使用率を示しています。
図:単一サーバの CPU 使用率
図:クラスタノードの CPU 使用率
VSI Maxのパフォーマンス指標のうち2つを見ると、何が起きていたかをより正確に把握できます。Zip Low Compression (ZLC) とZip High Compression (ZHC) のインジケータは、CPU 負荷の高いアクションに関連付けられています。タスクワーカーのプロファイルでは、操作がベースラインである約 1 秒から、ほぼ最大 13 秒に及ぶことがわかります。その遅延の大部分は、最大6秒だった600人のユーザーマークを過ぎると倍増します。ユーザー数が 380 を超えると、ナレッジワーカープロファイルでも同様の遅延が増加します。この動作により、CPU が実際にフルキャパシティに達しているという結論に至ります。通常、このタイプのワークロードのボトルネックはプロセッサです。
図:タスクワーカーの Zip 圧縮パフォーマンス
図:ナレッジワーカー Zip 圧縮パフォーマンス
単一サーバーとクラスターノードの両方のメモリ使用率は予想どおりです。どちらも使用可能なメモリの約 75%-80% を消費しており、これがスケーラビリティのスイートスポットです。ここには予想外の発見はありません。
図:単一サーバーのメモリ使用率
図:クラスタノードのメモリ使用率
メモリ使用率と同様に、ディスク使用率は予想どおりです。単一サーバーのディスク遅延は最大1ミリ秒ですが、クラスターノードのピークは5ミリ秒で、どちらも予想されるパフォーマンスパラメータの範囲内です。
図:単一サーバーのディスク使用率
図:クラスタノードのディスク使用率
ネットワークトラフィックは最後に確認すべき指標です。1 台のサーバが約 2000 Kbps のトラフィックのテスト中にピークを示し、クラスタノードでは 100,000 Kbps 未満のピークを示します。
図:単一サーバーのネットワーク使用率
図:クラスタノードのネットワーク使用率
プロジェクトの開始時には、AVS と Azure 間の内部の ExpressRoute (ER) 接続に関する懸念がありました。具体的には、チームは Azure のクライアントが AVS SDDC への ER 接続を使用すると、回線が過負荷になる可能性があることを懸念していました。Azure Monitor を使用して、850 ユーザーという最も負荷の高い状況で、1 秒あたりのパケット数 (PPS) とビット/秒 (BPS) を確認しました。
負荷テストで観察した結果は心強いものです。850 人のユーザーは、50 Mbps 未満のスループットで 1 秒あたり約 17,240 パケットを生成していました。標準的な ExpressRoute 接続は約 100,000 PPS と 1 Gbps のスループットを処理するため、ER 接続は約 4000 人のユーザーを快適にサポートできるはずです。
図:1 秒あたりのエクスプレスルートパケット数
図:ExpressRoute ビット/秒
分析の結果、私たちのテストではCPUの処理能力がボトルネックだったことが分かりました。検討した他の3つの指標(メモリ、ディスク、ネットワーク)はすべて許容範囲内でした。通常、CPUの処理能力はスケーラビリティの制限要因です。ノードあたり72コアの3ノードシステムでは、合計216個のコアが使用できました。ハイパーバイザーとインフラストラクチャ VM のコンピューティングキャパシティをいくらか確保すれば、約 200 個の vCPU をワークロードに使用できます。
これらのテスト結果に基づくと、AVSでのデプロイを計画する際に従うべき経験則は、軽いワークロードの場合はvCPUあたり3.5ユーザー、重いワークロードの場合はvCPUあたり約2ユーザーです。
これらは管理されたラボで生成された球場番号です。これらは、テストした 2 つのワークロードプロファイルで 3 ノードクラスタで想定されるユーザー数の概算にすぎません。ご自身でワークロードをテストし、そのデータを使用してワークロードに最適な構成を決定することを強くお勧めします。
最初のステップは、シトリックスのインフラストラクチャをCitrix Cloud に移行することです。次のステップは、VMwareワークロードをAVSに移行することです。オンプレミスのデータセンターと AVS SDDC の間で VMware ワークロードを移動するには、VMware の HCX アプライアンスを使用することをお勧めします。
VMwareからAzureへの移行の詳細な手順については、 こちらをご覧ください。このリンクは、Azure VMware ソリューションではなく Azure インフラストラクチャに移行することを前提としています。Citrix インフラストラクチャをAVSに移行する場合、移行計画に含めるべき主な手順は次のとおりです。
Citrix Cloud 環境のセットアップ
Citrix Virtual Apps and Desktopsのサブスクリプションを取得
オンプレミスのVMware環境に2つのクラウドコネクタをデプロイ
リソースロケーションの名前を変更
オンプレミスのCitrix Virtual Apps and DesktopsをCitrix Virtual Apps およびデスクトップサービスに移行
ホスト接続の確立
Citrix Cloud API アクセスを有効にする
Workspace Environment Management オンプレミスからWorkspace Environment Management サービス
システム要件の検証
サービスエージェントモードに切り替え
オンプレミスのStoreFront およびCitrix GatewayサービスへのCitrix Workspaceおよび
ワークスペース設定のセットアップ
認証の構成
ユーザーへのアクセス権の付与
オンプレミスのデータセンターとクラウドホスト型の VMware 実装間でワークロードを移行するには、VMware の移行ツール HCX を使用するのが最善の方法です。HCXのコア機能は、VMware vSphere環境間で仮想ワークロードを透過的に移行することです。
注:オンプレミスのデータセンターと AVS デプロイメント間の ExpressRoute 接続を含め、HCX の要件は厳格です。 要件の全リストはこちらをご覧ください。
HCX には、オンプレミスのデータセンターに 1 つずつ、AVS SDDC に 1 つずつ、複数のアプライアンスペアが必要です。
マネージャー:HCX のすべての管理機能の提供を担当
WAN インターコネクトアプライアンス:ワークロードの移行とレプリケーションを容易にします
WAN 最適化アプライアンス:WAN インターコネクトアプライアンスが使用する WAN 最適化とデータ複製を行い、2500 IOPS に対応したストレージが必要
ネットワーク拡張:vSphere環境間でレイヤー2ネットワークを拡張します
プロキシホスト:WAN インターコネクトアプライアンスが使用する移行および vMotion アクティビティのローカルターゲットを提供します
ワークロードの移行を計画するための大まかな手順は次のとおりです。これらの手順の詳細については、VMware のサイトを参照してください。
移行するワークロードのインベントリを生成します。これには以下が含まれます。
Citrix VDAホスト、Citrix PVSサーバー、およびそのデータベース。
ユーザーおよびアプリケーションデータをホストするファイルサーバー。
ネットワークとパフォーマンスの要件を理解してください。
移行できないワークロードのインベントリを生成します。
メインフレームなどの非x86プラットフォーム上のワークロード。
移行中のCitrix アプリケーションとの統合と依存関係を理解してください。
IP アドレスの戦略を立てる:
理想的には、Citrix ワークロードは既存のIPアドレスを保持し、Network Extensionアプライアンスを使用してクラウドに移行できます。
IPアドレスを維持できないワークロードには、移行のためのIP移行計画が必要です。これには、サブネット全体がクラウドに移行していないサブネット上のすべてのワークロードが含まれます。
すべてのトラフィックフローを理解する:
Citrix サーバーからオンプレミスデータセンターへの下りトラフィックは課金されます。システムとそのデータを移行します。
どのシステムをまとめて移行すべきかを把握してください。たとえば、PVSとそのSQLデータベース、または基本イメージを共有するすべてのCitrix サーバーなどです。
追加のレプリケーショントラフィックとネットワーク拡張トラフィックを考慮してください。
オンプレミスデータセンターとAVSクラスター間の移行パスにあるすべてのオンプレミスネットワークデバイスを含むトポロジー図を生成します。
ネットワークデバイスの監視を設定します。帯域幅が減少したり、遅延が大幅に増加したりする状況に注意してください。
移行トラフィックのボトルネックに注意してください。この監視は、使用率の高いサーバをホットモードまたはウォームモードで移動する場合に特に重要です。使用率の高いサーバーには、PVSサーバーまたはSQLデータベースサーバーが含まれます。
HCX では、サイト間で 100 Mbps 以上の接続が必要です。
ワークロードで使用されるすべての外部ストレージデバイスを把握してください。
外部ストレージデバイスに依存するアプリケーションをすべて特定します。
ライセンシングにドングルなどの物理的な外部デバイスに依存するアプリケーションを特定します。
ワークロードの使用率レベルを確認し、ワークロードの使用率が最も低い時間帯に移行を計画します。この方法では、ユーザーへの影響が軽減されます。
次のことを念頭に置いて、移行ウェーブを計画してください。
基本イメージを共有するCitrix ワークロードなど、相互に依存するアプリケーションのグループを互いにできるだけ近づけてください。
大規模で複雑なアプリケーションを独自のウェーブに分離します。
移行中はネットワークトラフィックが増加します。
ネットワークトラフィックを減らすため、ワークロードを25~50台のサーバに抑えます。
ソースとデスティネーションのストレージ IOPS を監視します。
HCXを導入して移行を計画したら、次のステップはCitrix ワークロードの移行です。このプロセスの詳細については、 こちらをご覧ください。
HCX アプライアンスに十分なリソース (CPU とメモリ) があることを確認します。HCX アプライアンスがどの分散リソーススケジューラ (DRS) オートメーションにも含まれていないことを確認します。
すべての HCX アプライアンスの High HA 再起動ポリシーを設定します。
WAN インターコネクトアプライアンスは、専用の IPsec トンネルを介してワークロードを複製します。
ネットワーク拡張アプライアンスは、専用の IPsec トンネルを介してレイヤー 2 ネットワーク拡張を提供します。
拡張ネットワークは、移行が完了するまで SDDC 内で分離されます。
拡張ネットワークは解体され、SDDC を介して通常のルーティングが復元されます。
移行プロセスには次の 3 種類があります。
コールド移行:パワーオフ状態の仮想マシンを移行します。
一括移行:ワークロードをクラウドにウェーブ状に複製し、オンプレミスコピーをパワーオフすると同時にクラウドワークロードをパワーオンします。コールドマイグレーションで移行できないPVSサーバーとそのSQLデータベースには、このアプローチが推奨されます。
HCX vMotion: 標準 vMotion またはレプリケーションアシスト vMotion (制限あり) このアプローチは、コールド移行と一括移行を選択できない場合にのみ推奨されます。
Citrix 環境を移行するには、次の順序を使用してください。
PVS および MCS イメージ (データ移行によるファイルとフォルダ) の移行。
HCX一括移行を使用してPVSサーバーとデータベースを移行します。
新しいAVS VMを使用して、マシンカタログとデリバリーグループを再作成します。
クラウド内のサーバーを再起動してオンラインにします。
移行後のカットオーバーにより、オンプレミスリソースが廃止されます。
Azure に移行する際には、移行の計画に役立つ次のベストプラクティスと推奨事項が提供されます。
VMware Site Recovery Manager (SRM) には、オンプレミスのデータセンターと AVS SDDC の間に ExpressRoute 接続が必要です。
複数のクラスタを導入する場合は、VMware管理仮想マシンを最初のクラスタ(NSX-T、vCenter、HCX)に配置します。
HCX は次のようなユースケースを支援できます。
vSphereのレガシーバージョンと最新バージョン間でワークロードを移行します。
非VMware環境をvSphereに移行します。
IPアドレスを変更せずにワークロードを移行できます。
データ重複排除を有効にして、WANに最適化されたリンクを介してワークロードを移行します。
NSA Suite B 暗号化を使用してワークロードを安全に移行します。
オンプレミスのCitrix デプロイメントをMicrosoft AzureのAzure VMwareソリューションに移行するための大まかなガイダンスを提供しました。ガイダンス全体および「参考資料」セクション内の URL リンクには、移行の詳細な手順が記載されています。企業ですでにVMware vSphereを実行している場合は、AVSへの移行が最も簡単な移行方法です。企業がオンプレミスで別の仮想化ソリューションを実行している場合でも、VMware HCX アプライアンスと AVS を使用すれば Azure へのスムーズな移行が可能になります。
https://vmc.techzone.vmware.com/vmc-solutions/docs/intro/introduction-to-hcx#section4
https://vmc.techzone.vmware.com/vmc-solutions/docs/deploy/planning-an-hcx-migration#section2
https://docs.citrix.com/en-us/tech-zone/build/deployment-guides/azure-citrix-migration.html
https://docs.microsoft.com/en-us/azure/azure-vmware/concepts-networking
https://docs.microsoft.com/en-us/azure/expressroute/expressroute-about-virtual-network-gateways
https://azure.microsoft.com/en-us/support/legal/sla/azure-vmware/v1_1/
https://docs.microsoft.com/en-us/azure/virtual-wan/virtual-wan-expressroute-portal
https://docs.microsoft.com/en-us/azure/virtual-wan/virtual-wan-site-to-site-portal
https://www.citrix.com/blogs/2017/03/20/citrix-scalability-the-rule-of-5-and-10/
https://docs.microsoft.com/en-us/azure/virtual-wan/virtual-wan-point-to-site-portal