设计方法硬件层

注意:

此内容已动态机器翻译。 放弃 Back to English

本节介绍虚拟基础结构服务器、虚拟桌面和虚拟应用程序主机的硬件大小调整。这些服务器的大小通常以两种方式完成。

  • 第一种也是首选的方法是根据工作负载要求提前规划并购买硬件。
  • 第二种方法是在最佳配置中使用现有硬件来支持不同的工作负载要求。

本节将讨论与这两种方法有关的决定。

决定:工作量分离

在实施 XenApp 和 XenDesktop 部署时,基础结构、XenDesktop 和 XenApp 工作负载的工作负载可以分离到专用资源群集中,或在相同的物理主机上混合使用。Citrix 建议使用资源群集来分隔工作负载,尤其是在企业部署中。这允许更好地调整主机大小,因为每个工作负载都有独特的要求,例如过载比率和内存使用情况。

在资源群集成本高昂的较小环境中,工作负载可能会以一种仍然允许高可用环境的方式混合。Citrix 的领先做法是分离工作负载,但混合工作负荷是一种基于成本的业务决策。

决策:物理处理器 (pCPU)

下表提供了每个物理内核可以支持的轻型、中型和重型工作负载的虚拟桌面数量的指导。每个桌面都与一个并发用户相关联,假设操作系统进行了优化。

用户工作负载

操作系统 每个物理核心的用户
Windows 7 13
Windows 8 12
Windows 10 12
Windows 2008R2 18
Windows 2012R2 21
Windows 2016 21
操作系统 每个物理核心的用户
Windows 7 10
Windows 8 9
Windows 10 9
Windows 2008R2 12
Windows 2012R2 14
Windows 2016 14
操作系统 每个物理核心的用户
Windows 7 5
Windows 8 4
Windows 10 4
Windows 2008R2 6
Windows 2012R2 7
Windows 2016 7

对于 “每个物理核心的用户” 的估计值是运行微软 Office 2010 的基准数。必须根据具体的基础设施要求调整基线数。作为一般准则,以下特征是对服务器密度的基线更改。

特征 服务器密度影响
杀毒软件(未优化) 减少 25%
实时监视 减少 15%
Office 2013 减少 20%
Office 2016 减少 25%
超线程 增加 20%

要估计 XenApp 和 XenDesktop 工作负载所需的物理内核总数,请为每个用户组使用以下公式:

工作负载公式映像

Σ 表示所有用户组组合 “i” 的总和。

Usersi = 每个用户组的并发用户数

UsersPerCorei = 每个物理核心的用户数

AV = 防病毒影响(默认值 = 0.25)

Mon = 监视工具的影响(默认值 = 0.15)

Off13 = Office 2013 的影响(默认值 = .2)

Off16 = Office 2016 的影响(默认值 = .25)

HT = 超线程影响(默认值 = .2)

如果工作负载将被分离(XenApp 和 XenDesktop 工作负载),则应将公式计算两次,对于所有 XenDesktop 用户计算一次,对于所有 XenApp 用户计算第二次,按顺序

决策:物理内存 (pRAM)

将内存大小调整为物理主机的推荐方法是根据支持虚拟机所需的总内存和主机的 CPU 容量来调整大小。为了计算 XenApp 和 XenDesktop 所需的总内存,只需将虚拟机数量乘以分配给虚拟机的内存量。所有计算机目录的总和将是 XenApp 和 XenDesktop 主机所需的总内存。这如下面的公式所示。

工作负载公式映像

Σ 表示所有用户组组合 “i” 的总和。

VMI = 每个用户组的并发用户数

VRAMI = 分配给每个虚拟机的 RAM 量

如果工作负载将分离到不同的主机(XenApp 和 XenDesktop 工作负载)上,应计算两次公式,一次针对所有 XenDesktop 用户,第二次针对所有 XenApp 用户。

决策:物理主机 (PhoST)

在大多数情况下,支持 XenApp 和 XenDesktop 工作负载的物理主机 (PhoST) 的数量将受可用处理器内核数限制。以下公式提供了用户工作负载所需主机数量的估计值。该公式基于分离 XenApp 和 XenDesktop 工作负载的最佳实践,因为建议的 CPU 过载比率不同。

XenDesktop pHost = (总 XenDesktop pCPU/每个 pHost 的核心数 +1)

XenApp pHost = (总 XenApp pCPU/每个 pHost 的核心数 +1)

根据处理器内核确定物理主机数后,将计算每个主机的 RAM 量。

每个 pHost 的 XenDesktop pRAM = HypervisorRAM + (总 XenDesktop pRAM/XenDesktop pHost 数 -1)

每个 pHost 的 XenAPP pRAM = HypervisorRAM + (总 XenApp pRAM/XenApp pHost 数 -1)

决定:GPU

用于交付图形工作负载的主机要求图形处理器提供高端用户体验。使用 HDX 3D Pro 支持高端图形需要特定的硬件主机和显卡。知识库文章中提供了经过测试的硬件的更新列表。高端图形用户的桌面和应用程序主机的大小应基于 GPU 要求,确保主机具有足够的 CPU 和内存资源来支持工作负载。

NVIDIA GRID 卡可与 vGPU 配置文件一起使用,以支持多个用户。下表提供了 NVIDIA 的尺寸指南。

在表中, Y 指示应用程序证书可用。

NVIDIA 网格图形板 虚拟 GPU 配置文件 申请认证 图形内存 每个用户的最大显示数 每个显示屏的最大分辨率 每个图形板最大 vGPU 用例
GRID K2 K280Q 4096 MB 4 2560 x 1600 2 设计师
  K260Q 2,048 MB 4 2560 X 1600 4 设计师/高级用户
  K240Q 1,024 MB 2 2560 x 1600 8 设计师/高级用户
  K220Q 512 MB 2 2560 x 1600 16 知识工作者
  K200   256 MB 2 1900 x 1200 16 超级用户
GRID K1 K180Q 4096 MB 4 2560 x 1600 4 超级用户
  K160Q 2,048 MB 4 2560 x 1600 8 超级用户
  K140Q 1,024 MB 2 2560 x 1600 16 超级用户
  K120Q 512 MB 2 2560 x 1600 32 超级用户
  K100   256 MB 2 1900 x 1200 32 知识工作者

存储大小

决策:存储架构

主要存储体系结构如下:

  • 本地存储 -使用直接连接到计算机系统的硬盘。磁盘无法与其他计算机系统共享,但如果计算机托管池或托管的共享桌面,则无需共享存储解决方案。在很多情况下,本地存储可以和共享存储一样执行。可扩展性仅限于计算机系统中可用的驱动器托架数量。例如,许多刀片服务器只有两个驱动器托架,因此使用本地存储支持 XenDesktop 部署可能不是最佳选择。
  • DAS -使用电缆直接连接到服务器或工作站的存储子系统。它使用块级存储,可以是计算机系统本地的硬盘,也可以是磁盘架,通过外部布线连接多个磁盘。与本地磁盘不同,磁盘货架需要单独管理。存储货架可以连接到多个服务器,以便共享数据或磁盘。
  • NAS -通过网络文件共享为计算机系统提供文件级存储。NAS 作为文件服务器运行,NAS 系统是包含一个或多个硬盘的联网设备,通常排列在逻辑冗余存储容器或 RAID 阵列中。访问通常使用标准以太网和网络文件共享协议(如 NFS、SMB/CIFS 或 AFP)提供。

注意

NAS 可能成为单点故障。如果网络共享不可用,则从磁盘流传输的所有目标设备也将不可用。

  • SAN -专用存储网络,提供对整合的块级存储的访问。SAN 允许计算机连接到不同的存储设备,因此没有服务器拥有允许在多台计算机之间共享数据的存储子系统的所有权。SAN 通常拥有自己的专用存储设备网络,这些存储设备通常无法通过网络以标准方式访问。为了将设备连接到 SAN 网络,需要一个称为主机总线适配器 (HBA) 的专用适配器。由于连接了更多的存储和设备,SAN 具有高度可扩展性,性能没有显著变化。从资本和学习、部署和管理技术所需时间来看,SAS 都可以是一项昂贵的投资。
  • 混合 -NAS 头是指没有任何板载存储的 NAS,而是连接到 SAN。实际上,它充当文件级 NAS 协议(NFS、CIFS 等)和块级 SAN 协议(光纤通道和 iSCSI)之间的转换器。因此,它可以结合这两种技术的优势,并允许没有主机总线适配器 (HBA) 的计算机连接到集中存储。

下表总结了可用的存储选项,并对其适用于 XenDesktop 部署的适用性进行了评价。

存储属性 本地 DAS NAS SAN
执行费用
管理
性能 中 - 高 中 - 高
冗余 低 - 中 中 - 高 中 - 高
可扩展性 中 - 高 中 - 高
典型用例 中小型生产和测试环境 中小型生产环境 中小型生产环境 中等到大型生产环境

注意

Hyper-V 2008 R2 不支持 NAS 技术。Hyper-V 2012/2012 R2 仅支持支持 SMB3.0 协议的 NAS 解决方案。有关更多信息,请参阅手册中的 “超级电动 2008 R2” 和 “超级电动 2012 R2” 部分。

本地存储最适合存储不具有高可用性要求的虚拟机或附加持久数据(如随机(池)桌面或托管共享桌面)。本地和 DAS 适用于存储用户数据和主目录文件。如果使用计算机创建服务,主映像以及任何更新都必须复制到每台服务器。

NAS 和 SAN 存储最适合支持 XenDesktop 环境的基础设施服务器,以及具有静态数据(如静态(专用)桌面)的虚拟机。

决策:RAID 级别

要选择最佳 RAID 级别,需要考虑给定应用程序或工作负载生成的 IOPS 和读/写比,并结合 RAID 级别的单个功能。对于托管读取密集型工作负载(如Provisioning Services虚拟磁盘存储),针对 RAID 1、5、6、10 等读取操作优化的 RAID 级别是最佳的。这是因为这些 RAID 级别允许读取操作同时分布到 RAID 集中的所有磁盘。

对于托管写入密集型工作负载(如 Provisioning Services 写入缓存和计算机创建服务差异磁盘),RAID 级别(如 RAID 1 或 10)是最佳的,因为这些级别针对写入进行了优化,并且写入损失较低。

下表概述了最常用的 RAID 级别的关键定量属性:

突袭 容量 (%) 容错能力 读取性能 写入性能 最小磁盘数
0 100 很高 高(写罚分 1) 2
1 50 单驱故障 很高 中等(写罚分 2) 2
5 67 - 94 单驱故障 低(写罚分 4) 3
6 50 - 88 双驱故障 低(写罚分 6) 4
10 50 每个子阵列中的单驱动器故障 很高 中等(写罚分 2) 4

注意

写入损失是 RAID 数据保护技术所固有的,它要求每个应用程序写入请求有多个磁盘 I/O 请求,范围从最小值(镜像阵列)到实质值(RAID 级别 5 和 6)。

决策:磁盘数量

要确定所需的磁盘数量,必须了解每个磁盘的性能特性、RAID 级别的特性和给定工作负载的性能要求。确定所需磁盘总数的基本计算是:

磁盘总数 = 总读取 IOPS +(总写入 IOPS x RAID 惩罚)/ 磁盘速度 IOPS

例如,磁盘制造商报告他们开发的特定磁盘阵列总工作负载 IOPS 为 2000。每个磁盘的原始 IOPS 为 175。要确定支持 RAID 10 上具有 20% 读取操作和 80% 写入操作的工作负载所需的磁盘数量,请执行以下操作:

磁盘总数 = ((20% x 2000) + (80% x 2000) x 2) / 175 = 20.57 或 21 个磁盘

根据前面的示例,下表显示了磁盘计数将如何根据 RAID 级别和读/写比率而变化。

突袭 原始的 IOPS(每个磁盘) 工作负载 IOPS 读取% 写入% 磁盘计数
0 175 2000 20 80 12
  175 2000 80 20 12
1 / 10 175 2000 20 80 21
  175 2000 80 20 14
5 175 2000 20 80 39
  175 2000 80 20 19

决策:磁盘类型

硬盘驱动器 (HDD) 是磁盘驱动器的传统变体。这些类型的磁盘由保护外壳内的电机驱动主轴上的旋转盘组成。数据通过读/写头以磁性方式写入和从拼盘中读取。

市场上有不同的实施这种技术,在性能、成本和可靠性方面各不相同。

  • 串行 ATA (SATA) 磁盘通过两对导体串行传输数据。一对用于数据差分传输,另一对用于数据差分接收。SATA 驱动器广泛应用于消费型台式机和笔记本电脑。典型的 SATA 驱动器的传输速度从 1500 到 6000 Mbps 不等,在设计上支持热插拔。
  • 小型计算机系统接口 (SCSI) 磁盘使用缓冲的对等接口,在设备之间使用握手信号。许多 SCSI 设备需要一个 SCSI 启动程序在主机和 SCSI 目标之间启动 SCSI 事务。SCSI 磁盘在工作站和服务器中很常见,吞吐量从 40 到 5120 Mbps 不等。iSCSI(Internet 小型计算机系统接口)是通过 TCP/IP(更常通过千兆以太网传输)进行的常规 SCSI 协议的映射。
  • 光纤通道 (FC) 磁盘是并行 SCSI 磁盘的继任者,在 SAN 存储设备中很常见。光纤通道信号可在电气接口或光纤电缆上运行。吞吐量范围为 1 — 20Gbps,连接可热插拔。
  • 串行连接 SCSI (SAS) 磁盘使用新一代串行通信协议,允许比 SATA 磁盘更快的数据传输。吞吐量可在 2400 到 9600 Mbps 之间。

与传统硬盘相反,固态磁盘 (SSD) 使用微芯片在 NAND 非易失性存储器芯片 (Flash) 或 DRAM 中保留数据,并且不包含移动部件。固态硬盘不太容易受到物理冲击,访问时间和延迟更短,I/O 速率更高。固态硬盘具有显著更高的随机读取性能。固态硬盘驱动器可以实现每秒 5,000 至 20,000 次随机读取的任何位置。固态硬盘的每千兆字节 (GB) 成本更高,通常在磁盘的生命周期内支持数量有限的写入操作。

基于闪存的 SSD 可以基于多级单元格 (MLC) 或单级单元格 (SLC)。SLC 设备在每个单元格中仅存储一点信息。MLC 设备可以存储每个单元的多位信息。基于闪存的固态硬盘成本低于基于 DRAM 的固态硬盘,但性能较慢。基于 DRAM 的固态硬盘设备主要用于加速应用程序,否则这些应用程序会因闪存 SSD 或传统硬盘的延迟而受到阻力。

由于驱动器的成本高、容量低、磨损快,固态硬盘在企业存储解决方案中不可用。SSD 技术的改进和降低成本使它们比 HDD 更有利。固态混合驱动器 (SSHD) 将固态混合驱动器 (SSHD) 与 SSD 缓存结合在一起,通过包含大型 HDD 驱动器和 SSD 缓存,以提高频繁访问数据的性能。

比较 SSD 和 HDD 很困难,因为 HDD 基准的重点是查找性能方面,如旋转延迟时间和寻找时间。由于 SSD 不旋转或寻求,它们可能会在这些测试中表现出巨大的优势。但是,SSD 在混合读取和写入方面存在挑战,其性能可能会随着时间的推移而下降。

下表比较了目前市场上的一些更常见的存储类型的传输速率。

技术 速率 (MBps)
基于快速以太网的 iSCI 100
Ultra-2 wide SCSI(16 位/40 MHz) 640
基于千兆以太网的 iSCI 1000
SATA rev 3 6000
SAS 3 9600
超过 10 GbE 的 FCoE 10000
SATA rev 3.2 - SATA Express 16000
基于 Infiniband 的 iSCI 32000

SCSI 和 SATA 磁盘最适合存储不具备高性能要求(如 PVS 虚拟磁盘存储)的数据。SAS、光纤通道或 SSD 驱动器最适合存储具有高性能要求(如 PVS 写入缓存)的数据。

决策:存储带宽

存储带宽是服务器和存储子系统之间的连接。了解带宽要求有助于确定适当的硬件,以便以速度交付数据和应用程序,从而获得积极的最终用户体验。对于大多数数据中心,10Gbps 以太网或 10Gbps FCoE 足以用于存储连接。但是,较小的环境可能只需要 1Gbps 的带宽。在虚拟化环境中,不仅要查看物理主机和存储子系统的带宽要求,而且要确定每个虚拟机所需的带宽量也是一个因素。

为了规划所需的带宽,有必要确定每个使用共享组件或网络路径的单独系统的吞吐量。例如,以下信息适用于具有 100 台类似虚拟机的环境(托管在 10 台虚拟化主机上,并连接到一个 NAS 头)。

  平均值 峰值
每虚拟机的吞吐量 10 MBps 30 MBps
每台主机的吞吐量 100 MBps(10 个 VM x 10 MBps) 300 MBps(10 个 VM x 30 MBps)
每个存储的吞吐量 1 GBps(10 个主机 x 100 MBps) 3 GBps(10 个主机 x 300 MBps)

用于存储通信的 NIC 需要是 1Gbps 适配器才能处理峰值负载。NAS 头及其网络连接需要支持 3Gbps 的数据流量,以支持所有系统的峰值负载。

决策:分层存储

一刀切的存储解决方案不太可能满足大多数虚拟桌面实现的要求。存储层的使用提供了一个有效的机制,提供一系列不同的存储选项,这些选项因性能、可扩展性、冗余性和成本而异。通过这种方式,可以将具有相似存储要求的不同虚拟工作负载组合在一起,并应用类似的成本模型。

例如,使用分层存储的 XenDesktop 实现可能如下所示:

  • 第 1 层存储组 -写入密集型文件(如写入缓存和差异磁盘)放置在由 SSD 组成的存储组中。
  • 第 2 层存储组 -任务关键型数据或需要高可用性的数据被放置在由成本较低的高性能驱动器组成的存储组中。
  • 第 3 层存储组 -很少使用的数据文件、只读文件或其他非任务关键数据,放置在由低成本和性能较低的驱动器组成的存储组中。

决策:精简配置

精简置备允许提供给虚拟机的存储空间大于存储存储存储库中实际可用的存储空间。这样可以让虚拟机访问通常未使用的磁盘空间,从而降低存储成本。这对使用链接克隆方法置备虚拟机的计算机创建服务特别有益。精简置备可最大限度地减少用于构建虚拟机的主映像副本所需的存储空间。在物理存储层(大多数 SAN 解决方案通常都可以使用此功能)和虚拟层,都可以进行精简置备。默认情况下,基于 NFS 的存储解决方案将启用精简配置。

在物理存储层,确保足够的存储空间可用以防止可用磁盘空间用尽时虚拟机在存储 “过度提交” 方案中不可用的风险非常重要。组织应确定成本节约的精简置备是否大于相关风险,并考虑在存储解决方案支持的情况下启用。

注意

如果磁盘空间已耗尽,虚拟机可能无法正常工作,因此务必通过警报或通知,使管理员有足够的时间向存储解决方案添加更多磁盘,从而不影响 XenDesktop 环境。

决定:重复数据删除

重复数据删除是一种数据压缩技术,通过这种技术,重复数据将被指向原始项目的单个副本的指针替换。这可以通过提高存储利用率来降低存储要求和成本,但可能会影响存储性能。

有两种重复删除的实现可用:

  • 过程重复删除 后-在将数据写入磁盘后执行重复删除。流程后重复删除应安排在工作时间以外的时间,以确保不会影响系统性能。由于写入缓存/差分磁盘通常每天都会重置,因此对随机桌面而言,后处理重复数据删除提供了最少的优势。
  • 在线删除重复 数据-在将数据写入磁盘之前检查数据,以便不存储重复的数据块。在将数据写入磁盘之前执行的其他检查有时会导致性能降低。如果启用,应仔细监视内联复制,以确保不会影响 XenDesktop 环境的性能。

如果存储解决方案支持,则建议启用后处理重复数据删除,以尽量减少对 XenDesktop 性能的影响。

放弃

The official version of this content is in English. Some of the Citrix documentation content is machine translated for your convenience only. Citrix has no control over machine-translated content, which may contain errors, inaccuracies or unsuitable language. No warranty of any kind, either expressed or implied, is made as to the accuracy, reliability, suitability, or correctness of any translations made from the English original into any other language, or that your Citrix product or service conforms to any machine translated content, and any warranty provided under the applicable end user license agreement or terms of service, or any other agreement with Citrix, that the product or service conforms with any documentation shall not apply to the extent that such documentation has been machine translated. Citrix will not be held responsible for any damage or issues that may arise from using machine-translated content.

设计方法硬件层