-
-
Configuration de Citrix ADC pour Citrix Virtual Apps and Desktops
-
Préférence de zone optimisée pour l'équilibrage de la charge du serveur global (GSLB)
-
Déploiement d'une plateforme de publicité numérique sur AWS avec Citrix ADC
-
Amélioration de l'analyse des flux de clics dans AWS à l'aide de Citrix ADC
-
Citrix ADC dans un cloud privé géré par Microsoft Windows Azure Pack et Cisco ACI
-
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Matrice de prise en charge et directives d'utilisation
-
Installer une instance Citrix ADC VPX sur le cloud VMware sur AWS
-
Installer une instance Citrix ADC VPX sur des serveurs Microsoft Hyper-V
-
Installer une instance Citrix ADC VPX sur la plate-forme Linux-KVM
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide d'OpenStack
-
Provisionnement de l'appliance virtuelle Citrix ADC à l'aide de Virtual Machine Manager
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau SR-IOV
-
Configuration des appliances virtuelles Citrix ADC pour utiliser l'interface réseau PCI
-
Provisioning de l'appliance virtuelle Citrix ADC à l'aide du programme virsh
-
Provisioning de l'appliance virtuelle Citrix ADC avec SR-IOV, sur OpenStack
-
Configuration d'une instance Citrix ADC VPX sur KVM pour utiliser les interfaces hôtes OVS DPDK
-
Déployer une instance de Citrix ADC VPX sur AWS
-
Serveurs d'équilibrage de charge dans différentes zones de disponibilité
-
Haute disponibilité dans toutes les zones de disponibilité AWS
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées dans différentes zones AWS
-
Ajout d'un service de mise à l'échelle automatique AWS back-end
-
Configurer une instance Citrix ADC VPX pour utiliser l'interface réseau SR-IOV
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau améliorée avec AWS ENA
-
Déployer une instance de Citrix ADC VPX sur Microsoft Azure
-
Architecture réseau pour les instances Citrix ADC VPX sur Microsoft Azure
-
Configurer plusieurs adresses IP pour une instance autonome Citrix ADC VPX
-
Configurer une configuration haute disponibilité avec plusieurs adresses IP et cartes réseau
-
Configurer une instance Citrix ADC VPX pour utiliser la mise en réseau accélérée Azure
-
Configurer les nœuds HA-INC à l'aide du modèle de haute disponibilité Citrix avec Azure ILB
-
Ajouter des paramètres de mise à l'échelle automatique Azure
-
Configurer GSLB sur une configuration haute disponibilité active en veille
-
Configurer des pools d'adresses (IIP) pour une appliance Citrix Gateway
-
Scripts PowerShell supplémentaires pour le déploiement Azure
-
Déployer une instance Citrix ADC VPX sur Google Cloud Platform
-
Déployer une paire haute disponibilité VPX sur Google Cloud Platform
-
Déployer une paire VPX haute disponibilité avec des adresses IP privées sur Google Cloud Platform
-
Ajouter un service de mise à l'échelle automatique GCP back-end
-
Prise en charge de la mise à l'échelle VIP pour l'instance Citrix ADC VPX sur GCP
-
-
Automatiser le déploiement et les configurations de Citrix ADC
-
-
Solutions pour les fournisseurs de services de télécommunication
-
Trafic de plan de contrôle d'équilibrage de charge basé sur les protocoles Diameter, SIP et SMPP
-
Utilisation de la bande passante à l'aide de la fonctionnalité de redirection de cache
-
Optimisation TCP de Citrix ADC
-
Authentification, autorisation et audit du trafic des applications
-
Fonctionnement de l'authentification, de l'autorisation et de l'audit
-
Composants de base de la configuration d'authentification, d'autorisation et d'audit
-
Autorisation de l'accès des utilisateurs aux ressources applicatives
-
Citrix ADC en tant que proxy du service de fédération Active Directory
-
Citrix Gateway sur site en tant que fournisseur d'identité pour Citrix Cloud
-
Prise en charge de la configuration de l'attribut de cookie SameSite
-
Configuration d'authentification, d'autorisation et d'audit pour les protocoles couramment utilisés
-
Résoudre les problèmes liés à l'authentification et à l'autorisation
-
-
-
Prise en charge de la configuration Citrix ADC dans la partition d'administration
-
Prise en charge de VXLAN pour les partitions d'administration
-
Prise en charge de SNMP pour les partitions d'administration
-
Prise en charge des journaux d'audit pour les partitions d'administration
-
Afficher les adresses PMAC configurées pour la configuration VLAN partagée
-
-
-
-
Configuration de l'expression de stratégie avancée : Mise en route
-
Expressions de stratégie avancées : utilisation de dates, d'heures et de nombres
-
Expressions de stratégie avancées : analyse des données HTTP, TCP et UDP
-
Expressions de stratégie avancées : analyse des certificats SSL
-
Expressions de stratégie avancées : adresses IP et MAC, débit, ID VLAN
-
Expressions de stratégie avancées : fonctions d'analyse de flux
-
Référence aux expressions - Expressions de stratégie avancées
-
Résumé d'exemples d'expressions et de stratégies de syntaxe par défaut
-
Didacticiel exemples de stratégies de syntaxe par défaut pour la réécriture
-
Migration des règles Apache mod_rewrite vers la syntaxe par défaut
-
-
-
Traduire l'adresse IP de destination d'une requête vers l'adresse IP d'origine
-
-
Prise en charge de la configuration de Citrix ADC dans un cluster
-
-
-
Groupes de nœuds pour les configurations spotted et striped partielles
-
Suppression du nœud d'un cluster déployé à l'aide de l'agrégation de liens de cluster
-
Surveillance des itinéraires pour les itinéraires dynamiques dans le cluster
-
Surveillance de la configuration du cluster à l'aide de MIB SNMP avec liaison SNMP
-
Surveillance des échecs de propagation des commandes dans un déploiement de cluster
-
Prise en charge de MSR pour les nœuds inactifs dans une configuration de cluster spotted
-
Liaison d'interface VRRP dans un cluster actif à nœud unique
-
Scénarios de configuration et d'utilisation du cluster
-
Migration d'une configuration HA vers une configuration de cluster
-
Interfaces communes pour le client et le serveur et interfaces dédiées pour le backplane
-
Commutateur commun pour le client, le serveur et le backplane
-
Commutateur commun pour le client et le serveur et commutateur dédié pour le backplane
-
Services de surveillance dans un cluster à l'aide de la surveillance des chemins
-
Opérations prises en charge sur des nœuds de cluster individuels
-
-
-
Configurer les enregistrements de ressources DNS
-
Créer des enregistrements MX pour un serveur d'échange de messagerie
-
Créer des enregistrements NS pour un serveur faisant autorité
-
Créer des enregistrements NAPTR pour le domaine des télécommunications
-
Créer des enregistrements PTR pour les adresses IPv4 et IPv6
-
Créer des enregistrements SOA pour les informations faisant autorité
-
Créer des enregistrements TXT pour contenir du texte descriptif
-
Configurer Citrix ADC en tant que résolveur de stub adapté à la sécurité sans validation
-
Prise en charge des trames Jumbo pour DNS pour gérer les réponses de grandes tailles
-
Configurer la mise en cache négative des enregistrements DNS
-
-
Équilibrage de charge globale des serveurs
-
Configurer les entités GSLB individuellement
-
Cas d'utilisation : Déploiement d'un groupe de services d'échelle automatique basé sur l'adresse IP
-
-
Remplacer le comportement de proximité statique en configurant les emplacements préférés
-
Configurer la sélection du service GSLB à l'aide du changement de contenu
-
Configurer GSLB pour les requêtes DNS avec les enregistrements NAPTR
-
Exemple de configuration parent-enfant complète à l'aide du protocole d'échange de mesures
-
-
Équilibrer la charge du serveur virtuel et des états de service
-
Protéger une configuration d'équilibrage de charge contre les défaillances
-
-
Configurer des serveurs virtuels d'équilibrage de charge sans session
-
Réécriture des ports et des protocoles pour la redirection HTTP
-
Insérer l'adresse IP et le port d'un serveur virtuel dans l'en-tête de requête
-
Utiliser une adresse IP source spécifiée pour la communication backend
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Utiliser un port source à partir d'une plage de ports spécifiée pour la communication backend
-
Configurer la persistance de l'IP source pour les communications backend
-
-
Paramètres avancés d'équilibrage de charge
-
Protéger les applications sur les serveurs protégés contre les surtensions de trafic
-
Activer le nettoyage des connexions de serveur virtuel et de service
-
Activer ou désactiver la session de persistance sur les services TROFS
-
Activer la vérification de l'état TCP externe pour les serveurs virtuels UDP
-
Maintenir la connexion client pour plusieurs demandes client
-
Utiliser l'adresse IP source du client lors de la connexion au serveur
-
Définir une limite de nombre de requêtes par connexion au serveur
-
Définir une valeur de seuil pour les moniteurs liés à un service
-
Définir une valeur de délai d'attente pour les connexions client inactives
-
Définir une valeur de délai d'attente pour les connexions au serveur inactif
-
Définir une limite sur l'utilisation de la bande passante par les clients
-
Configurer les moniteurs dans une configuration d'équilibrage de charge
-
Configurer l'équilibrage de charge pour les protocoles couramment utilisés
-
Cas d'utilisation 3 : Configurer l'équilibrage de charge en mode de retour direct du serveur
-
Cas d'utilisation 4 : Configurer les serveurs LINUX en mode DSR
-
Cas d'utilisation 5 : Configurer le mode DSR lors de l'utilisation de TOS
-
Cas d'utilisation 7 : Configurer l'équilibrage de charge en mode DSR à l'aide d'IP sur IP
-
Cas d'utilisation 8 : Configurer l'équilibrage de charge en mode à un bras
-
Cas d'utilisation 9 : Configurer l'équilibrage de charge en mode Inline
-
Cas d'utilisation 10 : Équilibrage de la charge des serveurs du système de détection d'intrusion
-
Cas d'utilisation 11 : Isolation du trafic réseau à l'aide de stratégies d'écoute
-
Cas d'utilisation 12 : Configurer XenDesktop pour l'équilibrage de charge
-
Cas d'utilisation 13 : Configurer XenApp pour l'équilibrage de charge
-
Cas d'utilisation 14 : Assistant ShareFile pour l'équilibrage de charge Citrix ShareFile
-
-
Configurer pour source de trafic de données Citrix ADC FreeBSD à partir d'une adresse SNIP
-
Déchargement et accélération SSL
-
Prise en charge du protocole TLSv1.3 tel que défini dans la RFC 8446
-
Suites de chiffrement disponibles sur les appliances Citrix ADC
-
Matrice de prise en charge des certificats de serveur sur l'appliance ADC
-
Prise en charge du module de sécurité matérielle du réseau Gemalto SafeNet
-
-
-
-
Authentification et autorisation pour les utilisateurs du système
-
Configuration des utilisateurs, des groupes d'utilisateurs et des stratégies de commande
-
Réinitialisation du mot de passe administrateur par défaut (nsroot)
-
Configuration de l'authentification des utilisateurs externes
-
Authentification basée sur la clé SSH pour les administrateurs Citrix ADC
-
Authentification à deux facteurs pour les utilisateurs système
-
-
-
Configuration d'un tunnel de connecteur CloudBridge entre deux centres de données
-
Configuration de CloudBridge Connector entre Datacenter et AWS Cloud
-
Configuration d'un tunnel de connecteur CloudBridge entre un centre de données et Azure Cloud
-
Configuration du tunnel Connector CloudBridge entre Datacenter et SoftLayer Enterprise Cloud
-
-
Points à prendre en considération pour une configuration de haute disponibilité
-
Restriction du trafic de synchronisation haute disponibilité à un VLAN
-
Configuration des nœuds haute disponibilité dans différents sous-réseaux
-
Limitation des basculements causés par les moniteurs de routage en mode non-INC
-
Comprendre le calcul de la vérification de l'état de haute disponibilité
-
Gestion des messages de pulsation haute disponibilité sur une appliance Citrix ADC
-
Suppression et remplacement d'un Citrix ADC dans une configuration haute disponibilité
-
This content has been machine translated dynamically.
Dieser Inhalt ist eine maschinelle Übersetzung, die dynamisch erstellt wurde. (Haftungsausschluss)
Cet article a été traduit automatiquement de manière dynamique. (Clause de non responsabilité)
Este artículo lo ha traducido una máquina de forma dinámica. (Aviso legal)
此内容已动态机器翻译。 放弃
このコンテンツは動的に機械翻訳されています。免責事項
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This content has been machine translated dynamically.
This article has been machine translated.
Dieser Artikel wurde maschinell übersetzt. (Haftungsausschluss)
Ce article a été traduit automatiquement. (Clause de non responsabilité)
Este artículo ha sido traducido automáticamente. (Aviso legal)
この記事は機械翻訳されています.免責事項
이 기사는 기계 번역되었습니다.
Este artigo foi traduzido automaticamente.
这篇文章已经过机器翻译.放弃
Translation failed!
Matrice de prise en charge et directives d’utilisation
Ce document répertorie les différents hyperviseurs et fonctionnalités pris en charge sur une instance Citrix ADC VPX, leurs consignes d’utilisation et les limitations connues.
Tableau 1. Instance VPX sur Citrix Hypervisor
Version de Citrix Hypervisor | SysID | Modèles VPX |
---|---|---|
8.2 pris en charge 13.0 64.x à partir de, 8.0, 7.6, 7.1 | 450000 | VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G |
Tableau 2. Instance VPX sur un serveur VMware ESX
Version de VMware ESX | SysID | Modèles VPX |
---|---|---|
Numéro de version ESX 7.0 16324942 (pris en charge à partir de Citrix ADC version 13.0 version 71.x). 6.0, numéros de version 3620759, 5050593 (pris en charge à partir de Citrix ADC version 12.0 version 51.24), 6765062 (pris en charge à partir de Citrix ADC version 12.0 version 56,20). 6.5, numéros de version 4564106 et correctif 7967591. 6.7, numéro de version 8941472, 13006603 (pris en charge à partir de Citrix ADC version 13.0 version 47.24) ESXi 6.7 Update 3, numéro de version 14320388 (pris en charge par Citrix ADC version 13.0 build 58.9). | 450010 | VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G, VPX 25G, VPX 40G, VPX 100G |
Tableau 3. VPX sur Microsoft Hyper-V
Version Hyper-V | SysID | Modèles VPX |
---|---|---|
2012, 2012 R2, 2016, 2019 | 450020 | VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 8000 |
Tableau 4. Instance VPX sur KVM générique
Version KVM générique | SysID | Modèles VPX |
---|---|---|
RHEL 7.4, RHEL 7.5 (à partir de Citrix ADC version 12.1 50.x), RHEL 7.6, RHEL 8.0, Ubuntu 16.04, Ubuntu 18.04, RHV 4.2 | 450070 | VPX 10, VPX 25, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX 8000, VPX 10G, VPX 15G. VPX 25G, VPX 40G, VPX 100G |
Points à noter : gardez à l’esprit les points suivants lors de l’utilisation d’hyperviseurs KVM.
-
L’instance VPX est qualifiée pour les versions de version de l’Hypervisor mentionnées dans le tableau 1—4, et non pour les versions de correctifs dans une version. Toutefois, l’instance VPX devrait fonctionner de manière transparente avec les versions de correctifs d’une version prise en charge. Si ce n’est pas le cas, enregistrez un cas de prise en charge pour le dépannage et le débogage.
- Avant d’utiliser RHEL 7.6, procédez comme suit sur l’hôte KVM :
-
Modifiez /etc/default/grub et ajoutez
"kvm_intel.preemption_timer=0"
à la variableGRUB_CMDLINE_LINUX
. -
Régénérez grub.cfg avec la commande
"# grub2-mkconfig -o /boot/grub2/grub.cfg"
. -
Redémarrez la machine hôte.
-
-
Avant d’utiliser Ubuntu 18.04, procédez comme suit sur l’hôte KVM :
- Modifiez /etc/default/grub et ajoutez
"kvm_intel.preemption_timer=0"
à la variableGRUB_CMDLINE_LINUX
. - Régénérez grub.cfg avec la commande
"# grub-mkconfig -o /boot/grub/grub.cfg “
. - Redémarrez la machine hôte.
- Modifiez /etc/default/grub et ajoutez
Tableau 5. Instance VPX sur AWS
Version AWS | SysID | Modèles VPX |
---|---|---|
S.O. | 450040 | VPX 10, VPX 200, VPX 1000, VPX 3000, VPX 5000, VPX BYOL (VPX 8000, VPX 10G, VPX 15G et VPX 25G sont disponibles uniquement avec BYOL avec les types d’instance EC2 (C5, M5 et C5n) |
Tableau 6. Instance VPX sur Azure
Version Azure | SysID | Modèles VPX |
---|---|---|
S.O. | 450020 | VPX 10, VPX 200, VPX 1000, VPX 3000, VPX BYOL |
Tableau 7. Matrice de fonctions VPX
*La prise en charge du clustering est disponible sur SRIOV pour les interfaces client et serveur et non pour le backplane.
Les événements DOWN de l’**interface ne sont pas enregistrés dans les instances Citrix ADC VPX.
Pour LA statique, le trafic peut toujours être envoyé sur l’interface dont l’état physique est DOWN.
Pour LACP, le périphérique homologue connaît l’événement DOWN de l’interface basé sur le mécanisme de temporisation LACP.
Délai d’expiration court : 3 secondes
Délai d’expiration long : 90 secondes
Pour LACP, ne partagez pas d’interfaces entre les machines virtuelles.
Pour le routage dynamique, le temps de convergence dépend du protocole de routage car les événements de liaison ne sont pas détectés.
La fonctionnalité Itinéraire statique surveillée échoue si les moniteurs ne sont pas liés à des itinéraires statiques puisque l’état d’itinéraire dépend de l’état du VLAN. L’état du VLAN dépend de l’état de la liaison.
La détection des défaillances partielles ne se produit pas en haute disponibilité en cas de défaillance de la liaison. Une affection cérébrale divisée à haute disponibilité peut se produire en cas de défaillance du lien.
***Lorsqu’ un événement de lien (désactivation/activation, réinitialisation) est généré à partir d’une instance VPX, l’état physique du lien ne change pas. Pour LA statique, tout trafic initié par le pair est supprimé sur l’instance.
Pour LACP, le périphérique homologue connaît l’événement DOWN de l’interface en fonction du mécanisme de temporisation LACP.
Délai d’expiration court : 3 secondes
Délai d’expiration long : 90 secondes
Pour LACP, les interfaces ne doivent pas être partagées entre les machines virtuelles.
- Pour que la fonctionnalité de balisage VLAN fonctionne, procédez comme suit :
Sur VMware ESX, définissez l’ID VLAN du groupe de ports sur 1—4095 sur le vSwitch du serveur VMware ESX. Pour plus d’informations sur la définition d’un ID VLAN sur le vSwitch de VMware ESX server, reportez-vous à la section Solutions VLAN VMware ESX Server 3 802.1Q.
Tableau 8. Navigateurs pris en charge
Système d’exploitation | Navigateur et versions |
---|---|
Windows 7 | Internet Explorer - 8, 9, 10 et 11 ; Mozilla Firefox 3.6.25 et versions ultérieures ; Google Chrome- 15 et supérieures |
Windows 64 bits | Internet Explorer - 8, 9 ; Google Chrome - 15 et plus |
MAC | Mozilla Firefox - 12 et plus ; Safari - 5.1.3 ; Google Chrome - 15 et plus |
Consignes d’utilisation
Suivez ces instructions d’utilisation :
-
Reportez-vous à la section Considérations relatives à l’UC VMware ESXi dans le document Meilleures pratiques en matière de performances pour VMware vSphere 6.5. Voici un extrait :
Il n’est pas recommandé que les machines virtuelles à forte demande de CPU/mémoire reposent sur un hôte/cluster surengagé.
Dans la plupart des environnements, ESXi permet des niveaux significatifs de surengagement du processeur sans affecter les performances des machines virtuelles. C’est-à-dire sur un hôte, vous pouvez exécuter plus de vCPU que le nombre total de cœurs de processeur physique dans cet hôte.
Si un hôte ESXi devient saturé par CPU (c’est-à-dire que les machines virtuelles et les autres charges sur l’hôte exigent toutes les ressources CPU de l’hôte), les charges de travail sensibles à la latence risquent de ne pas fonctionner correctement. Dans ce cas, vous pouvez réduire la charge du processeur, par exemple en mettant hors tension certaines machines virtuelles ou en les migrant vers un autre hôte (ou en autorisant DRS à les migrer automatiquement).
-
Le Citrix ADC VPX est un dispositif virtuel hautes performances sensible à la latence. Pour obtenir les performances escomptées, l’appliance requiert une réservation vCPU, une réservation mémoire, un épinglage vCPU sur l’hôte. En outre, l’hyper thread doit être désactivé sur l’hôte. Si l’hôte ne répond pas à ces exigences, des problèmes tels que le basculement haute disponibilité, le pic CPU dans l’instance VPX, la lenteur dans l’accès à l’interface de ligne de commande VPX, le plantage du démon pitboss, les chutes de paquets et le faible débit se produisent.
- Un Hypervisor est considéré comme surprovisionné si l’une des deux conditions suivantes est remplie :
-
Le nombre total de cœurs virtuels (vCPU) provisionnés sur l’hôte est supérieur au nombre total de cœurs physiques (PCPU).
-
Le nombre total de machines virtuelles provisionnées consomme plus de vCPU que le nombre total de PCUs.
Parfois, si une instance est surprovisionnée, l’Hypervisor peut ne pas être en mesure de garantir les ressources réservées (telles que CPU, mémoire et autres) pour l’instance en raison de frais généraux de planification de l’Hypervisor, de bogues ou de limitations avec l’Hypervisor. Cela peut entraîner un manque de ressources CPU pour Citrix ADC et entraîner des problèmes mentionnés dans le premier point sous les directives d’utilisation. En tant qu’administrateurs, il est recommandé de réduire la location de l’hôte afin que le nombre total de vCPU provisionnés sur l’hôte soit inférieur ou égal au nombre total de PCUs.
Exemple
Pour l’Hypervisor ESX, si le
%RDY%
paramètre d’un vCPU VPX est supérieur à 0 dans la sortie deesxtop
commande, l’hôte ESX est dit avoir des frais généraux de planification, ce qui peut causer des problèmes liés à la latence pour le VPX instance.Dans une telle situation, réduisez la location sur l’hôte de sorte que
%RDY%
revient toujours à 0. Sinon, contactez le fournisseur de l’Hypervisor pour trier la raison pour laquelle la réservation de ressource n’a pas été effectuée.
-
- L’ajout à chaud est pris en charge uniquement pour les interfaces PV et SRIOV avec Citrix ADC sur AWS. Les instances VPX avec interfaces ENA ne prennent pas en charge la connexion à chaud, et le comportement des instances peut être imprévisible si l’on tente de brancher à chaud.
-
La suppression à chaud via la console Web AWS ou l’interface CLI AWS n’est pas prise en charge avec les interfaces PV, SRIOV et ENA pour Citrix ADC. Le comportement des instances peut être imprévisible si la suppression à chaud est tentée.
-
Vous pouvez utiliser deux commandes (
set ns vpxparam
etshow ns vpxparam
) pour contrôler le comportement d’utilisation de l’UC du moteur de paquets (non gestion) des instances VPX dans des environnements hypervisés et cloud :-
set ns vpxparam [-cpuyield (YES | NO | DEFAULT)] [-masterclockcpu1 (YES | NO)]
Autoriser chaque machine virtuelle à utiliser des ressources CPU qui ont été allouées à une autre machine virtuelle mais qui ne sont pas utilisées.
Définir les paramètres ns vpxparam :
-cpuyield : libère ou ne libère pas des ressources CPU allouées mais inutilisées.
OUI : Autoriser l’utilisation de ressources CPU allouées mais non utilisées par une autre machine virtuelle.
NON : réserve toutes les ressources CPU pour la machine virtuelle à laquelle elles ont été allouées. Cette option affiche un pourcentage plus élevé dans les environnements d’Hypervisor et de cloud pour l’utilisation du CPU VPX.
DÉFAUT : Non.
Remarque
Sur toutes les plates-formes Citrix ADC VPX, l’utilisation du vCPU sur le système hôte est de 100 %. Tapez la commande
set ns vpxparam –cpuyield YES
pour remplacer cette utilisation.-masterclockcpu1 : Vous pouvez déplacer la source de l’horloge maître de CPU0 (CPU de gestion) vers CPU1. Ce paramètre a les options suivantes :
OUI : Autoriser la machine virtuelle à déplacer la source de l’horloge maître de CPU0 vers CPU1.
NON : VM utilise CPU0 pour la source de l’horloge principale. Par défaut, CPU0 est la source de l’horloge principale.
-
show ns vpxparam
Affichez les paramètres actuels de vpxparam.
-
Pour les produits Citrix Ready, visitez Citrix Ready Marketplace.
Pour obtenir le support produit Citrix Ready, reportez-vous à la section Page FAQ.
Partager
Partager
Dans cet article
This Preview product documentation is Citrix Confidential.
You agree to hold this documentation confidential pursuant to the terms of your Citrix Beta/Tech Preview Agreement.
The development, release and timing of any features or functionality described in the Preview documentation remains at our sole discretion and are subject to change without notice or consultation.
The documentation is for informational purposes only and is not a commitment, promise or legal obligation to deliver any material, code or functionality and should not be relied upon in making Citrix product purchase decisions.
If you do not agree, select Do Not Agree to exit.