Les critères clés de l’hypervision








télécharger 27.52 Kb.
titreLes critères clés de l’hypervision
date de publication06.02.2018
taille27.52 Kb.
typeDocumentos
ar.21-bal.com > loi > Documentos
Virtualisation des serveurs x86
On change de planète

Par Claude Marson

L’arrivée de Windows Server 2012 a sensiblement modifié le paysage de la virtualisation. Et repose la question de la prééminence de VMWare. Car si la branche virtualisation d’EMC fait encore largement la course en tête, avec plus de 60 % des plates-formes, les choses pourraient bien changer. Microsoft disposant avec Hyper-V « nouvelle mouture », d’un hyperviseur de haut de gamme, crédible auprès des DSI, pour lui permettre de croiser le fer avec VMWare sur son propre terrain.

Reste à bien apprécier cet affrontement, ne pas tomber dans la dialectique des arguments purement marketing et choisir les solutions les mieux adaptées au contexte des utilisateurs. Ce qui passe nécessairement par une bonne approche et compréhension des concepts techniques nouveaux, qui vont bien au-delà du cadre traditionnel de l’hypervision, et qui, somme toute, nous semble constituer un véritable métier. Du système sans doute, mais un métier à part entière.

Deux cibles distinctes
Quand on compare l’hyperviseur de VMWare avec Hyper-V de Microsoft, on commet souvent une erreur de périmètre. On cherche absolument à comparer ce qui n’est pas comparable, à savoir un hyperviseur Hyper-V, centré sur les serveurs et une solution de virtualisation globale, telle que vSphere de VMWare qui, elle, s’adresse à l’ensemble de l’infrastructure du SI.

Ce sont bien des marchés différents.

Le premier s’adresse aux DSI qui veulent avant tout rationaliser leur parc et éviter l’inflation des machines physiques - ne dit-on pas que plus de 20 % des serveurs ne sont pas utilisés, si ce n’est pour chauffer les salles – alors que le second constitue un objectif d’architecture, qui a pour finalité de reconsidérer l’ensemble du système d’information, pour le rendre plus efficace, moins énergivore, plus sûr, avec un réseau mieux organisé et un stockage optimisé, sans déperdition.

En gros, ESXi de VMWare et Hyper-V de Microsoft, mais aussi KVM de RedHat (qui fait partie du noyau officiel de Linux) et Xen Server de Citrix sont des hyperviseurs purs et durs, alors que vSphere de VMWare est une solution plus globale, qui englobe ESXi.

La grande nouveauté du moment est qu’avec Windows Server 2012, Microsoft dispose enfin des armes qui vont lui permettre d’affronter VMWare sur son propre terrain de l’infrastructure globale. Et si on se réfère au passé, la bataille risque d’être sanglante..

Les critères clés de l’hypervision

L’hyperviseur étant une couche située entre les demandeurs : OS et applications, placés dans une MV (Machine Virtuelle) et les ressources matérielles, ses caractéristiques techniques sont évidemment essentielles, pour que l’ensemble de l’installation se comporte correctement.

Premier critère : la compatibilité. Il faut que le processeur hôte soit d’un niveau suffisant pour que son jeu d’instructions dispose des instructions nécessaires à la création d’anneaux d’exécution inférieurs à 0. De manière à ce que l’hyperviseur puisse s’y installer, sans perturber les OS, qui resteront en 0 et les applications en 3. Chacun restant dans son contexte, il n’est plus nécessaire de traiter les erreurs ou le cas particulier de la vingtaine d’instructions non privilégiées x86, susceptibles néanmoins de gérer les ressources matérielles. Ce qui évite au passage de perdre de 10 à 40 % de la puissance processeur.

En d’autres termes, il conviendra de veiller à ce que les processeurs Intel ou AMD soient au meilleur niveau et ne pas chercher à recycler les vieux « nanars » de la salle machine, dont on se dit qu’ils pourraient bien servir encore…

Partant du principe du « qui peut le plus peut le moins », les critères de configurations seront très importants…bien que pas forcément décisifs.

Le nombre de processeurs physiques et de nœuds d’un cluster de machine hôte n’est pas à négliger, de même que la capacité mémoire physique installable, qui sera sur Windows 2012 de 4 To, contre 2 à VMWare.

Vu du côté des MV, le processeur physique est perçu comme une pile de processeurs logiques, dont l’attribution aux MV passera par l’hyperviseur, une sorte de multiprocesseur logique.

Cette disposition est importante pour attribuer plus de ressources aux MV « gourmandes », porteuses d’applications lourdes.

Dans un système de virtualisation, l’adressage mémoire se fait dans un espace linéaire supérieur à l’espace réel (RAM Over-Commitment), avec une partie de la ressource sur disque

C’est la MMU : Memory Management Unit qui assure la correspondance entre la mémoire linéaire et la mémoire physique : mémoire + disque et qui gère pour cela une PT : Page Table, dans laquelle elle place les correspondances.

Avec plusieurs OS, pour éviter la cacophonie, l’hyperviseur bloque tous les accès à la MMU et les réinterprète. Il construit une fausse table des pages pour chaque OS hébergé, avec la correspondance entre les adresses linéaires demandées et celles qui lui sont réservées, c’est la SPT : Shadow Page Table. Ce qui ne manque pas d’accaparer une part non négligeable du potentiel de traitement de l’hyperviseur.

Pour réduire cette charge, Intel a créé l’EPT : Extended Page Tables et AMD, la RVI : Rapid Virtualization Indexing, des instructions qui permettent d’attribuer une partie de la mémoire physique à chaque OS invité, qui peuvent alors fonctionner sans provoquer d’intervention de l’hyperviseur.

Il s’agit de faire en sorte que ce soit le matériel (via le jeu d’instructions) qui se charge de l’attribution mémoire dans chaque machine virtuelle, sans provoquer de cataclysme, chaque MV disposant de sa MMU et d’un EPT ou RVI, à condition bien sûr de fonctionner sur des processeurs récents.

Au-delà de ce mécanisme, les systèmes actuels sont capables de faire du « provisioning » sur la mémoire, autrement dit de « faire croire » qu’ils attribuent le volume mémoire demandé, alors que dans les faits ils en attribuent moins, quitte à étendre l’espace alloué, si réellement cela s’avère nécessaire.

Ce critère a longtemps été l’apanage de VMWare, mais Hyper-V et d’autres hyperviseurs en disposent maintenant aussi.

Dans le détail, enfin, des concepts précis seront appréciés, tels que le « Transparent Page Sharing », pour éviter que des pages mémoire identiques soient copiées dans différentes MV, le « Memory Ballooning », qui permet d’attribuer dynamiquement, sans arrêter la MV concernée, de la mémoire non utilisée dans une MV, pour en améliorer les performances ou encore la compression mémoire, pour éviter de faire du « swapping » disque, en allant chercher des pages compressées en mémoire, plutôt que sur disque, la décompression étant plus rapide qu’un accès disque.

Le nombre de MV par processeur physique est souvent présenté comme un autre argument de poids. Et on sera content de savoir qu’ESXi en supporte 512, alors que Microsoft espère atteindre les 1024 sous Windows 2012. En réalité, même s’il est intéressant de savoir que « potentiellement » le système est capable d’héberger un grand nombre de MV, en réalité, le problème ne se pose pas en ces termes. La moyenne du nombre de MV se situe entre 70 et 130 par machine hôte, bien loin donc des records envisagés. Et curieusement, ce nombre de MV est supérieur en Europe de ce qu’il est en Amérique du Nord. Ce nombre dépend aussi très fortement de la nature des applications embarquées dans les MV, de leur niveau de « criticité » et de leur frugalité en ressources consommées.

Autrement dit, plutôt que de faire confiance aveuglément aux spécifications de l’éditeur, commençons par regarder ce que l’on va virtualiser et comment on répartira les applications sur les machines virtuelles. Et après, on décidera…


Les critères globaux
Au-delà des fonctions « régaliennes » de l’hyperviseur, le choix va de plus en plus se déporter vers des fonctions complémentaires, qui touchent au réseau, à la virtualisation du stockage, la haute disponibilité, la gestion des fichiers distribués...et surtout à l’administration centralisée de l’infrastructure hypervisée. On change bien d’époque.

Et cette fois, il ne s’agira plus de comparer le noyau d’hypervision ESXi de VMWare à Hyper-V ou tout autre hyperviseur, mais bien un vSphere de VMWare aux fonctions équivalentes de Microsoft, Citrix ou RedHat, si elles existent.

Côté réseau, par exemple, en plus des fonctions qui vont s’avérer indispensables, telles que le support IPv6, chaque MV pourra être « connectée » à une plusieurs interfaces réseaux (NIC) virtuelles, chacune dotée de sa propre adresse MAC et pile IP.

Les switch seront eux-aussi perçus comme une pile de switchs virtuels, chacun d’eux pouvant être branchés sur un réseau physique ou virtuel différent, pour des questions de non interférence et de sécurité : pour séparer logiquement le réseau téléphonique du réseau de données, par exemple.

Cette ouverture à la virtualisation du réseau sera sans doute le fait majeur des années à venir. Car comme les ressources machines physiques et le stockage, le réseau et ses constituants vont de plus en plus apparaître comme des ressources virtuelles, phénomène entraîné par les Clouds privés et publics, les premiers concernés par cette organisation.

Chez VMWare par exemple, on décompte déjà diverses solutions pour l’implémenter : la combinaison de plusieurs VLAN avec le mécanisme VRF (Virtual Routing and Forwarding), la mise en œuvre du protocole VXLAN (Virtual eXtensible Local Area Network), une initiative de Cisco, VMWare et de quelques autres, pour traiter correctement les problèmes de provisionnement et d’évolutivité du réseau dans un cadre virtualisé, ou encore l’association de VLAN avec des routeurs virtuels, autant de technologies avec lesquelles il va bien falloir nous familiariser.

En matière de stockage, le candidat à la virtualisation s’intéressera à l’identité des systèmes supportés : iSCSI, Fibre Channel, NAS, y compris les ressources locales SAS, SATA ou SCSI.

Peut-être devra-t-il aussi s’assurer de l’architecture de commutation des réseaux de stockage : 10 Gbps Ethernet, FCoE (contesté aujourd’hui), autrement dit l’association des couches logiques de commutation Fibre Channel à un câble physique Ethernet (niveaux OSI 1 et 2), voire dans certains cas, Infiniband.

En termes d’administration, il sera sensible à une gestion centralisée des infrastructures, pour créer, configurer, organiser et sécuriser les ressources de stockage.

Il notera au passage que le provisioning dynamique s’applique désormais autant au stockage qu’à la mémoire, qui lui permettra d’attribuer les ressources à un niveau inférieur à la demande, le même principe s’appliquant, à savoir complémenter l’attribution par des espaces complémentaires si ceux-ci s’avèrent nécessaires.

Il sera sans doute également très concerné par les nouveaux systèmes de fichiers distribués qui apparaissent, capables de traiter les aspects éclatement de fichiers, sécurité, duplication et récupération.

VMWare dispose d’un tel système avec VMFS : Virtual Machine File System qui permet à plusieurs VM de se partager un pool de fichiers clusterisés, qui apparaissent sous une seule dénomination logique, avec tous les mécanismes qui font l’intérêt de la virtualisation VMWare : Vmotion, DRS, HA (Haute Disponibilité). Microsoft l’accompagne désormais sous Windows 2012 avec VHDX, là encore un format nouveau, dédié à la distribution des ressources.

Sécurité et continuité de service
Parallèlement à la rationalisation des ressources, le meilleur emploi de la virtualisation est sans doute celui du montage d’architectures fortement sécurisées, qui garantissent aux usagers un service quasi-permanent (PCA/PRA….).

Les mécanismes de vMotion sont déjà bien connus, que l’on retrouve maintenant sur toutes les plates-formes, qui permettent de migrer une MV d’une machine physique à une autre, pour des questions de performances ou simplement de sécurité. Ceci, bien entendu sans interrompre le service, l’utilisateur ne se rendant pas compte qu’il est passé d’une machine physique à une autre, éventuellement distante de plusieurs centaines de km.

Ce mécanisme orienté MV est désormais accessible au stockage (Storage vMotion chez VMWare…) certains systèmes permettant de basculer d’une infrastructure physique de stockage à l’autre, toujours sans interruption de service.

Quand ces deux systèmes sont accompagnés d’un outil de supervision de haut niveau, l’administrateur dispose d’une une arme redoutable, qui s’appuiera par exemple sur le paramétrage des évènements et la remontée d’alertes, pour déclencher les opérations.

Dans le même ordre d’idées, les systèmes modernes prennent en charge la répartition de charge CPU (load balancing), la gestion des ressources indépendamment des machines auxquelles elles sont associées et même la haute disponibilité. Chez VMWare, il est possible de redémarrer automatiquement une MV sur une autre machine physique si vSphere détecte une anomalie, de même que l’on peut prévoir un redémarrage des ressources en affectant une priorité aux différentes MV concernées : d’abord les plus cruciales, ensuite les moins stratégiques.

Le mécanisme peut s’appliquer (alertes, anomalies), aussi bien aux applications, aux OS, qu’aux problèmes mémoire.

Poussé à l’extrême, la virtualisation peut constituer un véritable système de tolérance aux fautes..

L’administration au cœur des préoccupations
L’administration des ressources virtualisées va constituer le véritable juge de paix des solutions du marché. Depuis un point unique, il doit être possible d’effectuer des inventaires des ressources mobilisées : MV, applications, pools de ressources partagées, serveurs physiques, de les gérer à distance, de connaître de manière exhaustive les liens entre les différents « objets » constituant l’infrastructure administrée. Mais aussi de faire du « tuning » sur certains éléments pour espérer de meilleures performances.

La plupart des outils modernes d’IBM, Novell (Attachmate), Sysload, iNet, CA, etc, comportent désormais des extensions propres à la virtualisation, étant admis que les risques de dégradation incontrôlée des performances sont beaucoup plus élevés dans ce contexte que sur des machines physiques. La dimension nouvelle de ces outils étant qu’ils doivent surveiller en production, à la fois les ressources physiques et leur attribution virtuelle.

Les problèmes à résoudre sont désormais bien cernés : l’installation des infrastructures virtuelles et la gestion « fine » des configurations, le provisionnement des ressources, le suivi des performances des machines virtuelles, le dimensionnement des MV qui dépend des pics de charges applicatifs…qu’il vaut donc mieux connaître à l’avance, etc.

Ces outils sont capables au niveau de l’hyperviseur, de surveiller les paramètres généraux : E/S, puissance processeur, mémoire attribuée aux machines virtuelles, ressources consommées par l’hyperviseur et au niveau des partitions virtuelles, de surveiller les applications et leur consommation des ressources mises à leur disposition…avec des moyens de réaction en temps réel.

Leur console comporte des fonctions avancées d’équilibrage de charge et d’allocation dynamique des ressources et peuvent migrer en temps réel la charge de travail d’une machine virtuelle à une autre.

Cerise sur le gâteau, elles disposent de RBA : Red Book Automation, ce nouveau venu dans le paysage de l’administration des serveurs, pour automatiser les charges d’exploitation, sans passer par l’écriture d’un script (assemblage de symboles graphiques qui représentent l’enchaînement des tâches à effectuer).

De quoi se convaincre que décidément, on a bien changé de monde.

Reste que dans ce domaine VMWare, là encore possède un coup d’avance, car il est le seul à proposer aujourd’hui une fonction d’administration agnostique, indépendante des versions de Clouds et de systèmes de virtualisation, capable donc de gérer le provisionnement de tous ces systèmes à partir d’une con sole unique, dite vCac, dont il faut trouver l’origine dans DynamicOps, une technologie du Crédit Suisse ( ?) rachetée par VMWare.
Claude Marson




similaire:

Les critères clés de l’hypervision iconImportant : Nous vous remercions de bien vouloir contacter Madame...

Les critères clés de l’hypervision icon1. Les chiffres clés

Les critères clés de l’hypervision iconSciences Humaines 9 – Les concepts clés (L à J)

Les critères clés de l’hypervision iconNomination et qualifications des conseils : Quels sont les critères...

Les critères clés de l’hypervision iconAller sur google 13 pour voir les courbes des mots clés qui étaient tapés

Les critères clés de l’hypervision iconMarche public de service a procedure adaptee : avis de publicite et
«Choix de l’offre économiquement la plus avantageuse» pondéré par les critères suivants

Les critères clés de l’hypervision iconCritères de réussite

Les critères clés de l’hypervision iconRésumé Cet article s’intéresse au comportement des internautes dans...

Les critères clés de l’hypervision iconRecherche de l’offre «économiquement la plus avantageuse»
«économiquement la plus avantageuse» suivant les critères suivants, classés par ordre décroissant

Les critères clés de l’hypervision iconNote 1 Critères de sélection des offres








Tous droits réservés. Copyright © 2016
contacts
ar.21-bal.com