layout: doc description: “Thin provisioning better utilizes the available storage by allocating disk storage space to VDIs as data is written to the virtual disk, rather than allocating the full virtual size of the VDI in advance. The shared GFS2 type represents disks as a filesystem created on an iSCSI or HBA LUN.”—

씬 프로비저닝된 공유 GFS2 블록 스토리지

씬 프로비저닝은 VDI의 전체 가상 크기를 미리 할당하는 대신 가상 디스크에 데이터가 기록될 때 디스크 스토리지 공간을 VDI에 할당하여 사용 가능한 스토리지를 더욱 효과적으로 활용합니다. 씬 프로비저닝을 사용하면 공유 스토리지 시스템에 필요한 공간을 대폭 절감하고 총 소유 비용 (TCO) 을 절감할 수 있습니다.

공유 블록 스토리지에 대한 씬 프로비저닝은 다음과 같은 경우에 특히 중요합니다.

참고:

클러스터 네트워크가 비관리 VLAN에 있는 경우 클러스터된 풀에서 호스트를 추가하거나 제거할 수 없는 알려진 문제가 있으므로 VLAN과 함께 GFS2 SR을 사용하지 않는 것이 좋습니다.

공유 GFS2 유형은 디스크를 iSCSI 또는 HBA LUN에서 생성된 파일 시스템으로 나타냅니다. GFS2 SR에 저장된 VDI는 QCOW2 이미지 형식으로 저장됩니다.

이 문서에서는 xe CLI를 사용하여 GFS2 환경을 설정하는 방법을 설명합니다. XenCenter를 사용하여 GFS2 환경을 설정하려면 XenCenter 제품 설명서를 참조하십시오.

1. GFS2 환경 계획

데이터 손실 위험 없이 공유 블록 스토리지에서 씬 프로비저닝의 이점을 제공하려면 풀이 우수한 수준의 안정성과 연결성을 제공해야 합니다. GFS2를 사용하는 리소스 풀의 호스트는 서로 안정적으로 통신할 수 있어야 합니다. 이를 보장하기 위해 Citrix Hypervisor에서는 GFS2 SR과 함께 클러스터링된 풀을 사용해야 합니다. 또한 환경을 설계하고 Citrix Hypervisor 기능을 구성하여 최대한 높은 복원력과 이중화를 제공하는 것이 좋습니다.

GFS2 SR과 함께 작동하도록 Citrix Hypervisor 풀을 설정하기 전에 이상적인 GFS2 환경을 위한 다음 요구 사항 및 권장 사항을 검토하십시오.

GFS2 SR로 클러스터링된 풀은 다른 유형의 풀 및 SR과 동작에서 약간의 차이가 있습니다. 자세한 내용은 제약 조건을 참조하십시오.

2. 중복 네트워킹 인프라 구성

본드 네트워크는 두 개 이상의 NIC를 연결하여 네트워크 트래픽을 위한 단일 채널을 생성합니다. 클러스터링된 풀 트래픽에는 본드 네트워크를 사용하는 것이 좋습니다. 그러나 연결된 네트워크를 설정하기 전에 네트워크 하드웨어 구성이 연결된 네트워크에서 이중화를 권장하는지 확인하십시오. 이러한 권장 사항을 조직 및 환경에 맞게 가능한 한 많이 구현하는 것을 고려해 보십시오.

다음 모범 사례는 네트워크 스위치에 영향을 줄 수 있는 소프트웨어, 하드웨어 또는 전원 장애에 대한 복원력을 추가합니다.

3. 전용 본드 네트워크 생성

클러스터된 풀의 호스트가 서로 안정적으로 통신할 수 있는지 확인하는 것이 중요합니다. 이 풀 트래픽에 대해 본드된 네트워크를 생성하면 클러스터링된 풀의 복원력이 향상됩니다.

연결된 네트워크는 두 개 이상의 NIC 간에 연결을 형성하여 클러스터 풀이 클러스터 하트비트 트래픽에 사용할 수 있는 고성능 단일 채널을 만듭니다. 이 본드 네트워크를 다른 트래픽에는 사용하지 않는 것이 좋습니다. 풀이 관리 트래픽에 사용할 별도의 네트워크를 생성합니다.

경고:

이 권장 사항을 따르지 않을 경우 클러스터 관리 네트워크 패킷이 손실될 위험이 더 커집니다. 클러스터 관리 네트워크 패킷이 손실되면 클러스터링된 풀에서 쿼럼이 손실되고 풀의 일부 또는 모든 호스트가 자체 차단될 수 있습니다.

클러스터가 이 권장되지 않는 구성에서 차단되거나 문제가 발생하는 경우 지원 부서는 조사 과정에서 권장 구성에서 동일한 문제를 재현하도록 요청할 수 있습니다.

클러스터링 네트워크로 사용할 본드 네트워크를 만드는 방법:

  1. 풀의 호스트 간에 방화벽이 있는 경우 호스트가 다음 포트를 사용하여 클러스터 네트워크에서 통신할 수 있는지 확인합니다.

    자세한 내용은 Citrix Hypervisor에서 사용하는 통신 포트를참조하십시오.

  2. Citrix Hypervisor 서버에서 풀 마스터로 사용할 콘솔을 엽니다.

  3. 다음 명령을 사용하여 연결된 NIC에 사용할 네트워크를 만듭니다.

    xe network-create name-label=bond0
    <!--NeedCopy-->
    

    새 네트워크의 UUID가 반환됩니다.

  4. 다음 명령을 사용하여 결합에 사용할 PIF의 UUID를 찾습니다.

    xe pif-list
    <!--NeedCopy-->
    
  5. 액티브-액티브 모드, 액티브-패시브 모드 또는 LACP 본드 모드에서 본드 네트워크를 생성합니다. 사용하려는 본드 모드에 따라 다음 작업 중 하나를 완료합니다.

풀 마스터에서 연결된 네트워크를 만든 후 다른 Citrix Hypervisor 서버를 풀에 연결하면 네트워크 및 연결 정보가 자동으로 가입 서버에 복제됩니다.

자세한 내용은 네트워킹을 참조하십시오.

참고:

액티브-패시브 본드 네트워크 페일오버 시간을 테스트하려면:

액티브-패시브 모드를 사용하는 연결된 네트워크의 경우 액티브 링크에 장애가 발생하면 패시브 링크가 활성화되는 동안 네트워크 링크가 끊어지는 페일오버 기간이 있습니다. 액티브-패시브 연결 네트워크가 장애 조치하는 데 걸리는 시간이 클러스터 제한 시간보다 길면 클러스터 풀의 일부 또는 모든 호스트가 여전히 차단될 수 있습니다.

다음 방법 중 하나를 사용하여 네트워크가 페일오버되도록 강제하여 연결된 네트워크 페일오버 시간을 테스트할 수 있습니다.

결과가 일치하는지 확인하기 위해 테스트를 여러 번 반복합니다.

풀의 클러스터 제한 시간 값은 클러스터에 있는 호스트 수에 따라 달라집니다. 다음 명령을 실행하여 풀의 token-timeout 값을 초 단위로 찾을 수 있습니다.

xe cluster-param-get uuid=<cluster_uuid> param-name=token-timeout

페일오버 시간이 제한 시간보다 클 가능성이 높으면 네트워크 인프라 및 구성이 클러스터 풀을 지원할 만큼 충분히 안정적이지 않을 수 있습니다.

4. 클러스터링된 풀 설정

공유 GFS2 스토리지를 사용하려면 Citrix Hypervisor 리소스 풀이 클러스터된 풀이어야 합니다. GFS2 SR을 생성하기 전에 풀에서 클러스터링을 활성화합니다.

클러스터 풀은 클러스터되지 않은 풀의 호스트보다 더 긴밀하게 연결되고 조정되는 Citrix Hypervisor 서버 풀입니다. 클러스터의 호스트는 선택한 네트워크에서 서로 일정한 통신을 유지합니다. 클러스터의 모든 호스트는 클러스터에 있는 모든 호스트의 상태를 인식합니다. 이 호스트 조정을 통해 클러스터는 GFS2 SR의 콘텐츠에 대한 액세스를 제어할 수 있다. 클러스터된 풀이 항상 통신 상태를 유지하려면 클러스터의 각 호스트가 클러스터에 있는 호스트의 절반 이상(자체 포함)과 항상 통신해야 합니다. 이 상태를 Quorum이 있는 호스트라고 합니다. 호스트에 쿼럼이 없는 경우 호스트가 하드 재시작되고 클러스터에서 제거됩니다. 이 동작을 ‘펜싱’이라고 합니다.

자세한 내용은 클러스터된 풀을 참조하십시오.

클러스터링된 풀 설정을 시작하기 전에 다음 사전 요구 사항이 충족되는지 확인하십시오.

xe CLI를 사용하여 클러스터된 풀을 생성하려면 다음과 같이 하십시오.

  1. 세 개 이상의 Citrix Hypervisor 서버로 구성된 리소스 풀을 만듭니다.

    풀 마스터가 아닌 Citrix Hypervisor 서버에 연결할 때마다 다음 단계를 반복합니다.

    1. Citrix Hypervisor 서버에서 콘솔을 엽니다.
    2. 다음 명령을 사용하여 Citrix Hypervisor 서버를 풀 마스터의 풀에 가입합니다.

      xe pool-join master-address=<master_address> /
          master-username=<administrators_username> /
          master-password=<password>
      <!--NeedCopy-->
      

      master-address 매개 변수의 값은 풀 마스터인 Citrix Hypervisor 서버의 정규화된 도메인 이름으로 설정해야 합니다. password는 풀 마스터가 설치될 때 설정된 관리자 암호여야 합니다.

    자세한 내용은 호스트 및 리소스 풀을 참조하십시오.

  2. 이 네트워크에 속한 모든 PIF에 대해 disallow-unplug=true을(를) 설정합니다.

    1. 다음 명령을 사용하여 네트워크에 속한 PIF의 UUID를 찾습니다.

      xe pif-list
      <!--NeedCopy-->
      
    2. 리소스 풀의 Citrix Hypervisor 서버에서 다음 명령을 실행합니다.

      xe pif-param-set disallow-unplug=true uuid=<pif_uuid>
      <!--NeedCopy-->
      
  3. 풀에서 클러스터링을 사용하도록 설정합니다. 리소스 풀의 Citrix Hypervisor 서버에서 다음 명령을 실행합니다.

    xe cluster-pool-create network-uuid=<network_uuid>
    <!--NeedCopy-->
    

    이전 단계에서 생성한 연결된 네트워크의 UUID를 제공합니다.

5. 제어 도메인 메모리 늘리기

호스트의 제어 도메인 메모리가 부족하면 풀의 네트워크가 불안정해질 수 있습니다. 네트워크 불안정은 GFS2 SR을 사용하는 클러스터된 풀에 문제를 일으킬 수 있습니다.

클러스터된 풀에 적절한 양의 제어 도메인 메모리가 있는지 확인하는 것이 중요합니다. 제어 도메인 메모리의 양을 변경하고 메모리 동작을 모니터링하는 방법에 대한 자세한 내용은 메모리 사용량을 참조하십시오.

6. 스토리지 다중 경로 지정 구성

클러스터된 풀과 GFS2 SR 사이에 스토리지 다중 경로가 설정되어 있는지 확인합니다.

다중 경로 지정은 이중화를 위해 스토리지 트래픽을 다중 경로를 통해 스토리지 장치로 라우팅합니다. 정상 작동 중에는 모든 경로에 활성 트래픽이 있으므로 처리량이 증가합니다.

다중 경로 지정을 사용하도록 설정하기 전에 다음 명령문이 참인지 확인합니다.

xe CLI를 사용하여 다중 경로 지정을 활성화하려면

SR을 생성하기 전에 풀의 모든 호스트에 대해 다중 경로를 활성화하는 것이 좋습니다. 다중 경로 지정을 활성화하기 전에 SR을 생성하는 경우 호스트를 유지 관리 모드로 전환하여 다중 경로 지정을 활성화해야 합니다.

  1. Citrix Hypervisor 서버에서 콘솔을 엽니다.

  2. 다음 명령을 사용하여 호스트의 모든 PBD를 분리합니다.

    xe pbd-unplug uuid=<pbd_uuid>
    <!--NeedCopy-->
    

    명령을 xe pbd-list 사용하여 PBD의 UUID를 찾을 수 있습니다.

  3. 다음 명령을 사용하여 multipathing 매개 변수의 값을 true로 설정합니다.

    xe host-param-set uuid=<host uuid> multipathing=true
    <!--NeedCopy-->
    
  4. 단일 경로 모드에서 실행 중인 호스트에 여러 경로가 있는 기존 SR이 있는 경우:

  5. 풀의 모든 호스트에서 다중 경로를 활성화하려면 이 단계를 반복합니다.

풀의 모든 호스트에서 다중 경로 지정을 활성화해야 합니다. 모든 케이블 연결 및 iSCSI의 경우 서브넷 구성이 각 호스트의 해당 NIC와 일치해야 합니다.

자세한 내용은 스토리지 다중 경로 지정을 참조하십시오.

7. GFS2 SR 만들기

리소스 풀의 모든 Citrix Hypervisor 서버에서 볼 수 있는 iSCSI 또는 HBA LUN에 공유 GFS2 SR을 생성하십시오. GFS2와 함께 씬 프로비저닝된 LUN을 사용하지 않는 것이 좋습니다. 그러나 이 구성을 선택하는 경우 LUN에 Citrix Hypervisor가 쓸 수 있는 충분한 공간이 항상 있는지 확인해야 합니다.

클러스터링된 풀에 최대 62개의 GFS2 SR을 추가할 수 있습니다.

이전에 LVM을 사용한 두꺼운 프로비저닝에 블록 기반 스토리지 디바이스를 사용한 적이 있는 경우 Citrix Hypervisor에서 이를 감지합니다. XenCenter에서는 기존 LVM 파티션을 사용하거나 디스크를 포맷하고 GFS2 파티션을 설정할 수 있습니다.

iSCSI SR을 통한 공유 GFS2 생성

XenCenter를 사용하여 iSCSI SR을 통해 GFS2를 생성할 수 있습니다. 자세한 내용은 XenCenter 제품 설명서에서 소프트웨어 iSCSI 스토리지를 참조하십시오.

또는 xe CLI를 사용하여 iSCSI SR을 통해 GFS2를 생성할 수도 있습니다.

GFS2 SR에 대한 디바이스 구성 매개 변수:

매개 변수 이름 설명 필수 여부
provider 블록 제공자 구현입니다. 이 경우 iscsi.
target 호스트하는 iSCSI 파일러의 IP 주소 또는 호스트 이름
targetIQN SR을 호스팅하는 iSCSI 파일러의 IQN 타겟입니다.
SCSIid 디바이스 SCSI ID

xe sr-probe-ext 명령을 사용하여 이러한 매개 변수에 사용할 값을 찾을 수 있습니다.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
<!--NeedCopy-->
  1. 다음 명령을 실행하여 시작합니다.

    xe sr-probe-ext type=gfs2 device-config:provider=iscsi
    <!--NeedCopy-->
    

    명령의 출력은 추가 매개 변수를 제공하라는 메시지를 표시하고 각 단계에서 사용 가능한 값 리스트를 제공합니다.

  2. 명령을 반복하고 매번 새 매개 변수를 추가합니다.

  3. 명령 출력이 Found the following complete configurations that can be used to create SRs:로 시작되면 지정한 xe sr-create 명령과 device-config 매개변수를 사용하여 SR을 찾을 수 있습니다.

    예제 출력:

    ``` Found the following complete configurations that can be used to create SRs: Configuration 0: SCSIid : 36001405852f77532a064687aea8a5b3f targetIQN: iqn.2009-01.example.com:iscsi192a25d6 target: 198.51.100.27 provider: iscsi

    Configuration 0 extra information: ```

iSCSI 대상의 특정 LUN에 공유 GFS2 SR을 생성하려면 클러스터된 풀의 서버에서 다음 명령을 실행합니다.

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
   device-config:provider=iscsi device-config:targetIQN=<target_iqns> \
   device-config:target=<portal_address> device-config:SCSIid=<scsci_id>

GFS2 파일 시스템이 마운트되어 있는 동안 iSCSI 대상에 연결할 수 없는 경우 클러스터 풀의 일부 호스트가 하드 재시작(펜스)될 수 있습니다.

iSCSI SR을 사용하는 방법에 대한 자세한 내용은 소프트웨어 iSCSI 지원을 참조하십시오.

HBA SR을 통한 공유 GFS2 생성

Citrix Hypervisor 센터를 사용하여 HBA SR을 통해 GFS2를 만들 수 있습니다. 자세한 내용은 Citrix Hypervisor 센터 제품 설명서에서 하드웨어 HBA 스토리지를 참조하십시오.

또는 xe CLI를 사용하여 HBA SR을 통해 GFS2를 생성할 수 있습니다.

GFS2 SR에 대한 디바이스 구성 매개 변수:

매개 변수 이름 설명 필수 여부
provider 블록 제공자 구현입니다. 이 경우 hba.
SCSIid 디바이스 SCSI ID

xe sr-probe-ext 명령을 사용하여 scsiID 매개 변수에 사용할 값을 찾을 수 있습니다.

xe sr-probe-ext type=<type> host-uuid=<host_uuid> device-config:=<config> sm-config:=<sm_config>
  1. 다음 명령을 실행하여 시작합니다.

    xe sr-probe-ext type=gfs2 device-config:provider=hba
    

    명령의 출력은 추가 매개 변수를 제공하라는 메시지를 표시하고 각 단계에서 사용 가능한 값 리스트를 제공합니다.

  2. 명령을 반복하고 매번 새 매개 변수를 추가합니다.

  3. 명령 출력이 Found the following complete configurations that can be used to create SRs:로 시작되면 지정한 xe sr-create 명령과 device-config 매개변수를 사용하여 SR을 찾을 수 있습니다.

    예제 출력:

    ``` Found the following complete configurations that can be used to create SRs: Configuration 0: SCSIid : 36001405852f77532a064687aea8a5b3f targetIQN: iqn.2009-01.example.com:iscsi192a25d6 target: 198.51.100.27 provider: iscsi

    Configuration 0 extra information: ```

HBA 대상의 특정 LUN에 공유 GFS2 SR을 생성하려면 클러스터된 풀의 서버에서 다음 명령을 실행합니다.

xe sr-create type=gfs2 name-label="Example GFS2 SR" --shared \
  device-config:provider=hba device-config:SCSIid=<device_scsi_id>
<!--NeedCopy-->

HBA SR 작업에 대한 자세한 내용은 하드웨어 호스트 버스 어댑터를 참조하십시오.

다음은 뭐죠?

이제 GFS2 환경을 설정했으므로 쿼럼이 있는지 확인하여 클러스터 풀의 안정성을 유지하는 것이 중요합니다. 자세한 내용은 클러스터된 풀 관리를참조하십시오.

GFS2 환경에 문제가 발생하는 경우 클러스터 풀 문제 해결을참조하십시오.

다른 SR과 동일한 방식으로 GFS2 SR을 관리할 수 있습니다. 예를 들어 스토리지 어레이에 용량을 추가하여 LUN 크기를 늘릴 수 있습니다. 자세한 내용은 라이브 LUN 확장을참조하십시오.

제약 조건

공유 GFS2 스토리지에는 현재 다음과 같은 제약이 있습니다.