设计方法硬件层

本部分介绍虚拟基础结构服务器、虚拟桌面和虚拟应用程序主机的硬件大小调整。这些服务器的大小调整通常以两种方式完成。

  • 第一种也是首选方法是根据工作负载要求提前规划并购买硬件。
  • 第二种方法是在最佳配置中使用现有硬件来支持不同的工作负载要求。

本部分将讨论与这两种方法有关的决策。

决策:工作负载分离

在实施 XenApp 和 XenDesktop 部署时,基础结构的工作负载、XenDesktop 和 XenApp 工作负载可以分隔到专用资源群集中,或在相同的物理主机上混合使用。Citrix 建议使用资源群集来分隔工作负载,尤其是在企业部署中。这允许更好地调整主机大小,因为每个工作负载都有独特的要求,例如过载比率和内存使用情况。

在资源群集成本高昂的较小环境中,工作负载可能会以一种仍然允许高可用环境的方式混合。Citrix 的领先做法是分隔工作负载,但混合工作负载是一种基于成本的业务决策。

决策:虚拟处理器 (pCPU)

下表提供了每个物理内核可以支持的轻型、中型和重型工作负载的虚拟桌面数量的指导。每个桌面都与一个并发用户相关联,并且假设操作系统经过了优化。

用户工作负载

操作系统 每个物理核心的用户数
Windows 7 13
Windows 8 12
Windows 10 12
Windows 2008R2 18
Windows 2012R2 21
Windows 2016 21
操作系统 每个物理核心的用户数
Windows 7 10
Windows 8 9
Windows 10 9
Windows 2008R2 12
Windows 2012R2 14
Windows 2016 14
操作系统 每个物理核心的用户数
Windows 7 5
Windows 8 4
Windows 10 4
Windows 2008R2 6
Windows 2012R2 7
Windows 2016 7

“每个物理核心的用户数”的估计值是运行 Microsoft Office 2010 的基准数量。必须根据具体的基础结构要求调整基准数量。作为一般准则,以下特征是对服务器密度的基准更改。

特征 服务器密度影响
防病毒(未优化) 减少 25%
实时监视 减少 15%
Office 2013 减少 20%
Office 2016 减少 25%
超线程 增加 20%

要估计 XenApp 和 XenDesktop 工作负载所需的物理内核总数,请为每个用户组使用以下公式:

工作负载公式示意图

Σ 表示所有用户组组合“i”的总和。

Usersi = 每个用户组的并发用户数

UsersPerCorei = 每个物理核心的用户数

AV = 防病毒影响(默认值 = 0.25)

Mon = 监视工具影响(默认值 = 0.15)

Off13 = Office 2013 影响(默认值 = .2)

Off16 = Office 2016 影响(默认值 = .25)

HT = 超线程影响(默认值 = .2)

如果工作负载将被分隔(XenApp 和 XenDesktop 工作负载),应按顺序将公式计算两次,对所有 XenDesktop 用户计算一次,对所有 XenApp 用户计算第二次

决策:物理记忆 (pRAM)

推荐的大小调整到一台物理主机的内存的方法是为根据支持虚拟机和主机的 CPU 容量所需的总内存大小。为了计算 XenApp 和 XenDesktop 所需的总内存,只需将虚拟机的数量乘以分配给虚拟机的内存量。所有计算机目录的总和将是 XenApp 和 XenDesktop 主机所需的 RAM 总量。计算方法如下面的公式所示。

工作负载公式示意图

Σ 表示所有用户组组合“i”的总和。

VMi = 每个用户组的并发用户数

vRAMi = 分配给每个虚拟机的 RAM 量

如果工作负载将被分隔到不同的主机(XenApp 和 XenDesktop 工作负载),应将公式计算两次,对所有 XenDesktop 用户计算一次,对所有 XenApp 用户计算第二次

决策:物理主机 (pHost)

在大多数情况下,支持 XenApp 和 XenDesktop 工作负载的物理主机 (pHost) 的数量将受可用处理器内核数限制。以下公式提供了用户工作负载所需主机数量的估计值。该公式基于分离 XenApp 和 XenDesktop 工作负载的最佳做法,因为建议的 CPU 过载比率不同。

XenDesktop pHost 数量 = (XenDesktop pCPU 总量/每个 pHost 的内核数 +1)

XenApp pHost 数量 = (XenApp pCPU 总量/每个 pHost 的内核数 +1)

根据处理器内核数确定物理主机数后,将计算每个主机的 RAM 量。

每个 pHost 的 XenDesktop pRAM = 虚拟机管理程序 RAM + (XenDesktop pRAM 总量/XenDesktop pHost 数量 -1)

每个 pHost 的 XenAPP pRAM = 虚拟机管理程序 RAM + (XenApp pRAM 总量/XenApp pHost 数量 -1)

决策:GPU

用于交付图形工作负载的主机要求图形处理器提供高端用户体验。使用 HDX 3D Pro 支持高端图形需要特定的硬件主机和图形卡。知识库文章中提供了经过测试的硬件的更新列表。高端图形用户的桌面和应用程序主机的大小调整应基于 GPU 要求,确保主机具有足够的 CPU 和内存资源来支持工作负载。

NVIDIA GRID 卡可与 vGPU 配置文件一起使用,以支持多个用户。下表列出了 NVIDIA 提供的大小调整指南。

在表中, Y 表示应用程序证书可用。

NVIDIA GRID 图形板 虚拟 GPU 配置文件 应用程序认证 图形内存 每个用户的最大显示器数 每个显示器的最大分辨率 每个图形板的最大 vGPU 用例
GRID K2 K280Q Y 4096 MB 4 2560 x 1600 2 设计师
  K260Q Y 2048 MB 4 2560 X 1600 4 设计师/高级用户
  K240Q Y 1024 MB 2 2560 x 1600 8 设计师/高级用户
  K220Q Y 512 MB 2 2560 x 1600 16 知识工作者
  K200   256 MB 2 1900 x 1200 16 超级用户
GRID K1 K180Q Y 4096 MB 4 2560 x 1600 4 超级用户
  K160Q Y 2048 MB 4 2560 x 1600 8 超级用户
  K140Q Y 1024 MB 2 2560 x 1600 16 超级用户
  K120Q Y 512 MB 2 2560 x 1600 32 超级用户
  K100   256 MB 2 1900 x 1200 32 知识工作者

存储大小调整

决策:存储体系结构

主存储体系结构如下所示:

  • 本地存储 - 使用直接连接到计算机系统的硬盘。磁盘无法与其他计算机系统共享,但如果计算机托管池或托管共享桌面,则无需共享存储解决方案。在很多情况下,本地存储可以执行和共享存储。可扩展性仅限于计算机系统中可用的驱动器托架数量。例如,许多刀片式服务器只有两个驱动器托架,因此,使用本地存储支持 XenDesktop 部署可能不是最佳选择。
  • DAS - 使用电缆直接连接到服务器或工作站的存储子系统。它使用块级存储,可以是计算机系统本地的硬盘,也可以是磁盘架,通过外部布线连接多个磁盘。与本地磁盘不同,磁盘架需要单独管理。存储架可以连接到多个服务器,以便共享数据或磁盘。
  • NAS - 通过网络文件共享为计算机系统提供文件级存储。NAS 作为文件服务器运行,NAS 系统是包含一个或多个硬盘驱动器的联网设备,通常排列在逻辑冗余存储容器或 RAID 阵列中。访问通常使用标准以太网和网络文件共享协议(例如 NFS、SMB/CIFS 或 AFP)提供。

注意

NAS 可能成为单一故障点。如果网络共享变得不可用,则通过流技术从磁盘传输的所有目标设备也将不可用。

  • SAN - 专用存储网络,提供对整合的块级存储的访问。SAN 允许计算机连接到不同的存储设备,因此没有服务器拥有允许在多台计算机之间共享数据的存储子系统的所有权。SAN 通常拥有自己的专用存储设备网络,这些存储设备通常无法通过网络以标准方式访问。为了将设备连接到 SAN 网络,需要一个称为主机总线适配器 (HBA) 的专用适配器。由于连接了更多存储和设备,SAN 具有高度可扩展性,但性能没有显著变化。从资本和学习、部署和管理技术所需的时间来看,SAS 都是一项昂贵的投资。
  • 混合 - NAS 头是指没有任何板载存储的 NAS,而是连接到 SAN。实际上,它充当文件级 NAS 协议(NFS、CIFS 等)和块级 SAN 协议(光纤通道和 iSCSI)之间的转换器。因此,它可以结合这两种技术的优势,并允许没有主机总线适配器 (HBA) 的计算机连接到集中存储。

下表总结了可用的存储选项,并对其适用于 XenDesktop 部署的适用性进行了评价。

存储属性 本地 DAS NAS SAN
实施成本
管理
性能 中 - 高 中 - 高
冗余 低 - 中 中 - 高 中 - 高
可扩展性 中 - 高 中 - 高
典型用例 中小型生产和测试环境 中小型生产环境 中小型生产环境 中到大型生产环境

注意

Hyper-V 2008 R2 不支持 NAS 技术。Hyper-V 2012/2012 R2 仅支持支持 SMB 3.0 协议的 NAS 解决方案。有关详细信息,请参阅手册的“HyperV 2008 R2”和“Hyper-V 2012 R2”部分。

本地存储最适合存储不具有高可用性要求的虚拟机或附加的持久数据,例如随机(池)桌面或托管共享桌面。本地和 DAS 适用于存储用户数据和主目录文件。如果使用 Machine Creation Services,主映像以及任何更新都必须复制到每个服务器。

NAS 和 SAN 存储最适合支持 XenDesktop 环境的基础结构服务器以及具有静态(专用)桌面的静态数据的虚拟机。

决策:RAID 级别

要选择最佳 RAID 级别,需要考虑给定应用程序或工作负载生成的 IOPS 和读/写比率,并结合 RAID 级别的各项功能。对于托管读取密集型工作负载(例如 Provisioning Services 虚拟磁盘存储),针对 RAID 1、5、6、10 等读取操作优化的 RAID 级别是最佳的。这是因为这些 RAID 级别允许读取操作同时分布到 RAID 集中的所有磁盘。

对于托管写入密集型工作负载(例如 Provisioning Services 写入缓存和 Machine Creation Services 差异磁盘),RAID 级别(例如 RAID 1 或 10)是最佳的,因为这些级别针对写入进行了优化,并且写入罚分较低。

下表概述了最常用的 RAID 级别的关键定量属性:

RAID 容量 (%) 容错 读取性能 写入性能 磁盘数量下限
0 100 很高 高(写入罚分 1) 2
1 50 单驱动器故障 很高 中等(写入罚分 2) 2
5 67 - 94 单驱动器故障 低(写入罚分 4) 3
6 50 - 88 双驱动器故障 低(写入罚分 6) 4
10 50 每个子阵列中的单驱动器故障 很高 中等(写入罚分 2) 4

注意

写入罚分是 RAID 数据保护技术所固有的,它要求每个应用程序写入请求有多个磁盘 I/O 请求,范围从最小值(镜像阵列)到实际值(RAID 级别 5 和 6)。

决策:磁盘数量

要确定所需的磁盘数量,必须了解每个磁盘的性能特性、RAID 级别的特性和给定工作负载的性能要求。确定所需磁盘总数的基本计算如下:

磁盘总数 = 总读取 IOPS +(总写入 IOPS x RAID 罚分)/磁盘速度 IOPS

例如,磁盘制造商报告他们开发的特定磁盘阵列总工作负载 IOPS 为 2000。每个磁盘的原始 IOPS 为 175。要确定支持 RAID 10 上具有 20% 读取操作和 80% 写入操作的工作负载所需的磁盘数量,请执行以下操作:

磁盘总数 =((20% x 2000) + (80% x 2000) x 2) / 175 = 20.57 或 21 个磁盘

根据上面的示例,下表显示了磁盘计数将如何根据 RAID 级别和读/写比率而变化。

RAID 原始 IOPS(每个磁盘) 工作负载 IOPS 读取百分比 写入百分比 磁盘计数
0 175 2000 20 80 12
  175 2000 80 20 12
1 / 10 175 2000 20 80 21
  175 2000 80 20 14
5 175 2000 20 80 39
  175 2000 80 20 19

决策:磁盘类型

硬盘驱动器 (HDD) 是磁盘驱动器的传统变体。这些类型的磁盘由保护外壳内的电机驱动主轴上的旋转盘组成。数据通过读/写头以磁性方式写入和从旋转盘中读取。

市场上有此技术的不同实现,在性能、成本和可靠性方面各不相同。

  • 串行 ATA (SATA) 磁盘通过两对导体串行传输数据。一对用于数据差异传输,另一对用于数据差异接收。SATA 驱动器广泛应用于使用者桌面和便携式计算机。典型的 SATA 驱动器的传输速度从 1500 到 6000 Mbps 不等,在设计上支持热插拔。
  • 小型计算机系统接口 (SCSI) 磁盘使用缓冲的对等接口,该接口在设备之间使用握手信号。许多 SCSI 设备需要一个 SCSI 发起程序在主机与 SCSI 目标之间启动 SCSI 事务。SCSI 磁盘在工作站和服务器中很常见,吞吐量从 40 到 5120 Mbps 不等。iSCSI(Internet 小型计算机系统接口)是通过 TCP/IP(通常通过千兆以太网)映射常规 SCSI 协议。
  • 光纤通道 (FC) 磁盘是并行 SCSI 磁盘的继任者,在 SAN 存储设备中很常见。光纤通道信号可在电气接口或光纤电缆上运行。吞吐量可在 1 到 20 Gbps 之间,连接可热插拔。
  • 串行连接 SCSI (SAS) 磁盘使用新一代串行通信协议,允许比 SATA 磁盘更快的数据传输。吞吐量可在 2400 至 9600 Mbps 之间。

与传统硬盘相反,固态磁盘 (SSD) 使用微芯片在 NAND 非易失性内存芯片 (Flash) 或 DRAM 中保留数据,并且不包含移动部件。SSD 不太容易受到物理冲击,访问时间和延迟更短,I/O 速率更高。SSD 的随机读取性能明显更高。SSD 驱动器可以实现每秒 5000 至 20000 次随机读取的任何位置。SSD 的每千兆字节 (GB) 成本更高,通常在磁盘的生命周期内支持数量有限的写入操作。

基于闪存的 SSD 可以基于多级单元格 (MLC) 或单级单元格 (SLC)。SLC 设备在每个单元格中仅存储一位信息。MLC 设备可以存储每个单元格的多位信息。基于闪存的 SSD 成本低于基于 DRAM 的 SSD,但性能较慢。基于 DRAM 的 SSD 设备主要用于加快应用程序运行速度,否则这些应用程序会因闪存 SSD 或传统 HDD 的延迟而受到阻力。

由于驱动器的成本高、容量低、磨损快,SSD 以前在企业存储解决方案中不可用。SSD 技术的改进和降低成本使其比 HDD 更有利。固态混合驱动器 (SSHD) 将 SSD 和 SSD 的功能结合在一起,通过包含大型 HDD 驱动器和 SSD 缓存来提高频繁访问数据的性能。

比较 SSD 和 HDD 很困难,因为 HDD 基准的重点是查找性能方面,例如旋转延迟时间和搜寻时间。由于 SSD 不旋转,也不搜寻,它们可能会在此类测试中表现出巨大的优势。但是,SSD 在混合读取和写入方面存在挑战,其性能可能会随着时间的推移而下降。

下表比较了目前市场上的一些更常见的存储类型的传输速率。

技术 速率 (MBps)
基于快速以太网的 iSCI 100
Ultra-2 wide SCSI(16 位/40 MHz) 640
基于千兆以太网的 iSCI 1000
SATA rev 3 6000
SAS 3 9600
超过 10 GbE 的 FCoE 10000
SATA rev 3.2 - SATA Express 16000
基于无限带宽的 iSCI 32000

SCSI 和 SATA 磁盘最适合存储不具备高性能要求(例如 PVS 虚拟磁盘存储)的数据。SAS、光纤通道或 SSD 驱动器最适合存储具有高性能要求(例如 PVS 写入缓存)的数据。

决策:存储带宽

存储带宽是服务器与存储子系统之间的连接。了解带宽要求有助于确定适当的硬件,以便快速交付数据和应用程序,从而获得积极的最终用户体验。对于大多数数据中心,10 Gbps 以太网或 10 Gbps FCoE 足以用于存储连接。但是,较小的环境可能只需要 1 Gbps 的带宽。在虚拟化环境中,不但查看物理主机和存储子系统的带宽要求非常重要,而且确定每个虚拟机所需的带宽量也是一个因素。

为了规划所需的带宽,有必要确定每个使用共享组件或网络路径的单独系统的吞吐量。例如,以下信息适用于具有 100 台类似虚拟机的环境(托管在 10 台虚拟化主机上,并连接到一个 NAS 头)。

  平均值 峰值
每个 VM 的吞吐量 10 MBps 30 MBps
每个主机的吞吐量 100 MBps(10 个 VM x 10 MBps) 300 MBps(10 个 VM x 30 MBps)
每个存储的吞吐量 1 GBps(10 个主机 x 100 MBps) 3 GBps(10 个主机 x 300 MBps)

用于存储通信的 NIC 需要是 1 Gbps 适配器才能处理峰值负载。NAS 头及其网络连接需要支持 3 Gbps 的数据流量,以支持所有系统的峰值负载。

决策:分层存储

一刀切的存储解决方案不太可能满足大多数虚拟桌面实现的要求。存储层的使用提供了一个有效的机制,提供一系列不同的存储选项,这些选项因性能、可扩展性、冗余性和成本而异。通过这种方式,可以将具有相似存储要求的不同虚拟工作负载组合在一起,并应用类似的成本模型。

例如,使用分层存储的 XenDesktop 实现可能如下所示:

  • 第 1 层存储组 - 写入密集型文件(例如写入缓存和差异磁盘)放置在由 SSD 组成的存储组中。
  • 第 2 层存储组 - 任务关键型数据或需要高可用性的数据放置在由成本较低的高性能驱动器组成的存储组中。
  • 第 3 层存储组 - 很少使用的数据文件、只读文件或其他非任务关键数据放置在由低成本和性能较低的驱动器组成的存储组中。

决策:精简预配

精简预配允许提供给虚拟机的存储空间大于存储库中实际可用的存储空间。这样可以让虚拟机访问通常未使用的磁盘空间,从而降低存储成本。这对使用链接克隆方法预配虚拟机的 Machine Creation Services 特别有益。精简预配可最大限度地减少用于构建虚拟机的主映像副本所需的存储空间。在物理存储层(大多数 SAN 解决方案通常都可以使用此功能)和虚拟层,都可以进行精简预配。默认情况下,基于 NFS 的存储解决方案将启用精简预配。

在物理存储层,确保足够的存储空间可用以防止可用磁盘空间用尽时虚拟机在存储“过度提交”方案中不可用的风险非常重要。组织应确定成本节约的精简预配是否大于相关风险,并考虑在存储解决方案支持的情况下启用。

注意

如果磁盘空间已耗尽,虚拟机可能无法正常工作,因此务必通过警报或通知,使管理员有足够的时间向存储解决方案添加更多磁盘,从而不影响 XenDesktop 环境。

决策:重复数据删除

重复数据删除是一种数据压缩技术,通过这种技术,重复数据将被指向原始项目的单个副本的指针替换。这可以通过提高存储利用率来降低存储要求和成本,但可能会影响存储性能。

有两种重复删除的实现可用:

  • 后处理重复删除 - 在将数据写入磁盘后执行重复删除。后处理重复删除应安排在工作时间以外的时间,以确保不会影响系统性能。由于写入缓存/差异磁盘通常每天都会重置,因此对随机桌面而言,后处理重复数据删除提供了最少的优势。
  • 行内重复删除 - 在将数据写入磁盘之前检查数据,以便不存储重复的数据块。在将数据写入磁盘之前执行的其他检查有时会导致性能降低。如果启用,应仔细监视内联复制,以确保不会影响 XenDesktop 环境的性能。

如果存储解决方案支持,则建议启用后处理重复数据删除,以尽量减少对 XenDesktop 性能的影响。

设计方法硬件层