ノード間通信の設定
クラスタ設定のノードは、次のノード間通信メカニズムを使用して相互に通信します。
- ネットワーク内のノード(同じサブネット)は、クラスタバックプレーンを介して相互に通信します。バックプレーンは明示的に設定する必要があります。詳細な手順は次のとおりです。
- ネットワーク間で、パケットのステアリングは GRE トンネルを介して行われ、必要に応じて他のノード間通信がノード間でルーティングされます。
重要
- リリース 11.0 から、すべてのビルドでは、クラスタに異なるネットワークのノードを含めることができます。
- リリース 13.0 ビルド 58.3 からは、L3 クラスタの Fortville NIC で GRE ステアリングがサポートされています。
クラスタバックプレーンを設定するには、各ノードで次の操作を行います
- バックプレーンに使用するネットワークインターフェイスを特定します。
- 選択したネットワークインターフェイスからクラスタバックプレーンスイッチに、イーサネットケーブルまたは光ケーブルを接続します。
たとえば、ノード 4 のバックプレーンインターフェイスとしてインターフェイス 1/2 を使用するには、ノード 4 の 1/2 インターフェイスからバックプレーンスイッチにケーブルを接続します。
クラスタバックプレーンを設定する際の注意点
-
アプライアンスの管理インターフェイス(0/x)をバックプレーンインターフェイスとして使用しないでください。クラスタでは、インターフェイス 0/1/x は次のように読み込まれます。
0 -> ノードID 0 1/x-> Citrix ADC インターフェイス
-
クライアントまたはサーバのデータプレーンには、バックプレーンインターフェイスを使用しないでください。
-
クラスタバックプレーンには、リンク集約(LA)チャネルを使用することをお勧めします。
-
バックプレーンがバックツーバック接続されている 2 ノードクラスタでは、次のいずれかの条件下で、クラスタは動作上 DOWN になります。
- ノードの 1 つが再起動されます。
- いずれかのノードのバックプレーンインターフェイスが無効になっています。
したがって、別のクラスタノードとトラフィックに影響が及ばないように、バックプレーン専用のスイッチの使用をお勧めします。バックツーバックリンクを使用してクラスターをスケールアウトすることはできません。クラスターノードをスケールアウトすると、運用環境でダウンタイムが発生することがあります。
-
クラスタのすべてのノードのバックプレーンインターフェイスは、同じスイッチに接続され、同じ L2 VLAN にバインドされている必要があります。
-
同じクラスタインスタンス ID を持つクラスタが複数ある場合は、各クラスタのバックプレーンインターフェイスが異なる VLAN にバインドされていることを確認します。
-
バックプレーンインターフェイスは、そのインターフェイスの HA モニタリング設定に関係なく、常にモニタされます。
-
異なる仮想化プラットフォームでの MAC スプーフィングの状態は、クラスタバックプレーンのステアリングメカニズムに影響を与える可能性があります。したがって、適切な状態が設定されていることを確認します。
- XenServer - MACスプーフィングを無効にする
- Hyper-V - MAC スプーフィングを有効にする
- VMware ESX-MACスプーフィングを有効にする(「偽造転送」が有効になっていることも確認)
-
クラスタバックプレーンの MTU が自動的に更新されます。ただし、クラスタにジャンボフレームが設定されている場合は、クラスタバックプレーンの MTU を明示的に設定する必要があります。この値は 78 + X に設定する必要があります。X は、クライアントおよびサーバのデータプレーンの最大 MTU です。たとえば、サーバデータプレーンの MTU が 7500 で、クライアントデータプレーンの MTU が 8922 であるとします。クラスタバックプレーンの MTU は、78 + 8922 = 9000 に設定する必要があります。この MTU を設定するには、次のコマンドを使用します。
> set interface <backplane_interface> -mtu <value>
-
バックプレーンスイッチのインターフェイスの MTU は、1,578 バイト以上に指定する必要があります。クラスタに MBF、L2 ポリシー、ACL、CLAG 展開でのルーティング、および vPath などの機能がある場合に適用できます。
L2 および L3 クラスタに対する UDP ベースのトンネルのサポート
Citrix ADCリリース13.0ビルド36.x以降では、Citrix ADC L2およびL3クラスタはUDPベースのトンネリングを使用してトラフィックを制御できます。これは、クラスタ内の 2 つのノードのノード間通信用に定義されます。「tunnelmode」パラメータを使用すると、add and set clusternodeコマンドからGREまたはUDPトンネルモードを設定できます。
L3クラスタ展開では、Citrix ADCノード間のパケットは、ルーティングのために送信元ノードと宛先ノードのNSIPアドレスを使用する暗号化されていないGREトンネルを介して交換されます。この交換がインターネット経由で行われる場合、IPsec トンネルがない場合、NSIP はインターネット上に公開され、セキュリティ上の問題が発生する可能性があります。
重要
L3クラスターを使用する場合は、独自のIPsecソリューションを確立することをお勧めします。
次の表は、さまざまな配置に基づいてトンネルサポートを分類するのに役立ちます。
ステアリングタイプ | AWS | Microsoft Azure | オンプレミスで |
---|---|---|---|
MAC | 未サポート | 未サポート | サポート対象か |
GRE トンネル | サポート対象か | 未サポート | サポート対象か |
UDPトンネル | サポート対象か | サポート済み | サポート対象か |
重要
L3 クラスタでは、トンネルモードはデフォルトで GRE に設定されています。
UDP ベースのトンネルの設定
ノードIDのパラメータを設定して状態を言及することで、クラスタノードを追加できます。インターフェイス名を指定してバックプレーンを設定し、任意のトンネルモード(GRE または UDP)を選択します。
CLI のプロシージャ
CLI を使用して UDP トンネルモードを有効にします。
コマンドプロンプトで入力します。
add cluster node <nodeId>@ [-state <state>] [-backplane <interface_name>] [-tunnelmode <tunnelmode>]
set cluster node <nodeId>@ [-state <state>] [-tunnelmode <tunnelmode>]
注
トンネルモードに設定可能な値は、NONE、GRE、UDP です。
例
add cluster node 1 –state ACTIVE –backplane 1/1/1 -tunnelmode UDP
set cluster node 1 –state ACTIVE –tunnelmode UDP
GUIのプロシージャ
GUI を使用して UDP トンネルモードを有効にします。
-
System > Cluster > Nodesに移動します。
-
[クラスタノード] ページで、[追加] をクリックします。
-
[クラスタノードの作成] で、[トンネルモード] パラメータを [UDP] に設定し、[作成] をクリックします。
-
[閉じる] をクリックします。