Note de synthèSE








télécharger 64.77 Kb.
titreNote de synthèSE
date de publication05.07.2017
taille64.77 Kb.
typeNote
ar.21-bal.com > loi > Note



Pierre Jean PALMAS BTS Informatique de Gestion - Option : ARLE

Lycée Théodore AUBANEL - Avignon

NOTE DE SYNTHÈSE

8 Février - 2 Avril 2010



TABLE DES MATIÈRES


TABLE DES MATIÈRES 2

Remerciements 3

INTRODUCTION 4

Partie n°1. MIDGAR STUDIO 5

Présentation 5

Organisation 5

Activités 5

Secteur d'activité 5

Renseignements juridiques 5

Partie n°2. LA VIRTUALISATION 6

Principe 6

Notions 6

Intérêts de la virtualisation 7

Les différentes techniques de virtualisation 7

2.1.1 Isolateur 7

2.1.2 Noyau en espace utilisateur 7

2.1.3 Machine virtuelle 8

2.1.4 Para virtualisation ou hyperviseur 8

2.1.5 Matériel 8

Partie n°3. LE PROJET 9

Présentation du projet 9

Les différentes solutions de virtualisation 9

Solution 13

Moyens et ressources 13

Partie n°4. MISE EN PLACE DU PROJET 15

4.1 Installation du rôle Hyper-V 15

4.2 Console d'administration 16

4.3 Création d'un réseau virtuel 17

4.4 Création d’une machine virtuelle 18

4.5 Communication des machines virtuelles entres-elles 20

Partie n°5. CONCLUSION 21

Partie n°6. ANNEXES 22

Remerciements



Je tiens à remercier principalement Jeremy ZELER-MAURY pour l'accueil qu'il ma fait au sein de son entreprise, pour toute l'attention et les compétences qu'il ma fournis afin de mettre en place et mener à bien ce projet tout au long de ces huit semaines.

INTRODUCTION



Dans le cadre de la formation au BTS Informatique de gestion option Administrateur de Réseaux Locaux et d'Entreprise (ARLE), j'ai effectué un stage du 8 Février au 2 Avril 2010, soit une durée de 8 semaines au sein de l'entreprise Midgar Studio.
L'entreprise est spécialisé dans plusieurs domaines tels que :

  • La virtualisation

  • Le développement de jeux vidéo

  • La création de site internet (agence web)

  • Le développement de softwares privés


Nous allons nous intéressez plus précisément sur la virtualisation, cette dernière est une technologie qui peut être utile à quiconque utilise un ordinateur. Des millions de personnes et des milliers d'entreprises dans le monde, utilisent les solutions de virtualisation pour réduire leurs dépenses informatiques tout en augmentant l'efficacité, le taux d'utilisation et la flexibilité de leur matériel informatique existant.
C'est sur l'exploitation de cette nouvelle technologie que c'est déroulé mon stage et donc le support sur lequel s'appuie cette note de synthèse.

Partie n°1. MIDGAR STUDIO

Présentation


Midgar Studio est une entreprise spécialisé dans le développement de logiciels informatiques et de jeux vidéo depuis 2004.

Organisation


L'entreprise est composé de son directeur Mr ZELER-MAURY Jeremy et de 49 employés, en télétravail, séparé parmi les différentes activités ci-dessous.

Activités


Les différents domaines d'activité liés a l'entreprises sont :

  • Le développement de jeux vidéo

  • La création de site internet (agence web)

  • Le développement de software privé

  • La virtualisation

Secteur d'activité


Conseils en systèmes et logiciels informatiques (6202A)

Renseignements juridiques


Forme juridique : Société à responsabilité limitée

Capital social : 10 000 €

Siret : 50412488400025

Siège social : 263 Route de Lambesc - 13330 PELISSANNE

Partie n°2. LA VIRTUALISATION

Principe


Il peut sembler à priori étrange de simuler plusieurs machines sur une seule : un système d'exploitation étant en principe conçu pour utiliser au mieux un matériel qui est entièrement sous son contrôle. Pour cette raison, il semble à première vue que cette solution conduise à des inefficiences auxquelles s'ajoute le fait que le processus de virtualisation lui-même va consommer des ressources.

Ce n'est pas tout à fait vrai. D'une part, on évite une grande partie de ces inefficiences juste en disposant de disques différents pour chaque système lorsque c'est possible, et d'autre part les coûts de la mémoire permettent à chacun de ces systèmes de rester résident, et parfois même avec de larges sections de code partagées. Par ailleurs le microcode des mainframes comme des microprocesseurs inclut de plus en plus de fonctionnalités rendant la virtualisation plus efficace.

Enfin, il est courant pour une entreprise de disposer d'une quinzaine de serveurs fonctionnant à 15% de leur capacité, celle-ci n'étant là que pour faire face à tout moment aux pointes de charge sporadiques. Un serveur chargé à 15% ne consomme pas beaucoup moins d'énergie qu'un serveur chargé à 90%, et regrouper 4 serveurs sur une même machine peut donc s'avérer rentable si leurs pointes de charge ne coïncident pas systématiquement, même si 30% de la charge machine est représentée par la virtualisation elle-même

Enfin, la virtualisation des serveurs permet une bien plus grande modularité dans la répartition des charges et la reconfiguration des serveurs en cas d'évolution ou de défaillance momentanée (plan de secours, etc.).

La virtualisation offre plus de performance, moins de dépendance, en séparant les ressources, les composants sont indépendants les uns des autres, ce qui offre plus de flexibilité.

Notions


Chaque outil de virtualisation met en œuvre une ou plusieurs de ces notions :

  • couche d'abstraction matérielle et/ou logicielle

  • système d'exploitation hôte (installé directement sur le matériel)

  • systèmes d'exploitations (ou applications, ou encore ensemble d'applications) « virtualisé(s) » ou « invité(s) »

  • partitionnement, isolation et/ou partage des ressources physiques et/ou logicielles

  • images manipulables : démarrage, arrêt, gel, clonage, sauvegarde et restauration, sauvegarde de contexte, migration d'une machine physique à une autre

  • réseau virtuel : réseau purement logiciel, interne à la machine hôte, entre hôte et/ou invités.

Intérêts de la virtualisation


Les intérêts sont :

  • Utilisation optimale des ressources d'un parc de machines (répartition des machines virtuelles sur les machines physiques en fonction des charges respectives),

  • Installation, déploiement et migration facile des machines virtuelles d'une machine physique à une autre, notamment dans le contexte d'une mise en production à partir d'un environnement de qualification ou de pré-production, livraison facilitée,

  • Économie sur le matériel par mutualisation (consommation électrique, entretien physique, surveillance, support, compatibilité matérielle, etc.)

  • Installation, tests, développements, cassage et possibilité de recommencer sans casser le système d'exploitation hôte

  • Sécurisation et/ou isolation d'un réseau (cassage des systèmes d'exploitation virtuels, mais pas des systèmes d'exploitation hôtes qui sont invisibles pour l'attaquant, tests d'architectures applicatives et réseau)

  • Isolation des différents utilisateurs simultanés d'une même machine (utilisation de type site central)

  • Allocation dynamique de la puissance de calcul en fonction des besoins de chaque application à un instant donné,

  • Diminution des risques liés au dimensionnement des serveurs lors de la définition de l'architecture d'une application, l'ajout de puissance (nouveau serveur etc.) étant alors transparent.



Les différentes techniques de virtualisation




2.1.1Isolateur


Un isolateur est un logiciel permettant d'isoler l'exécution des applications dans ce que l’on appelle des contextes ou bien zones d'exécution. L'isolateur permet ainsi de faire tourner plusieurs fois la même application dans un mode multi-instance (plusieurs instances d’exécution) même si elle n’était pas conçue pour ça.

Cette solution est très performante, du fait du peu d'overhead (temps passé par un système à ne rien faire d'autre que se gérer), mais les environnements virtualisés ne sont pas complètement isolés.

La performance est donc au rendez-vous, cependant on ne peut pas vraiment parler de virtualisation de systèmes d’exploitation. Uniquement liés aux systèmes Linux, les isolateurs sont en fait composés de plusieurs éléments et peuvent prendre plusieurs formes.

2.1.2Noyau en espace utilisateur


Un noyau en espace utilisateur (user-space) tourne comme une application en espace utilisateur de l'OS hôte. Le noyau user-space a donc son propre espace utilisateur dans lequel il contrôle ses applications.

Cette solution est très peu performante, car deux noyaux sont empilés et l’isolation des environnements n’est pas gérée et l’indépendance par rapport au système hôte est inexistante. Elle sert surtout au développement du noyau.

2.1.3Machine virtuelle


Une machine virtuelle est un logiciel (généralement assez lourd) qui tourne sur l'OS hôte. Ce logiciel permet de lancer un ou plusieurs OS invités. La machine virtualise ou/et émule le matériel pour les OS invités, ces derniers croient dialoguer directement avec ledit matériel.

Cette solution est très comparable à un émulateur, et parfois même confondue. Cependant l’unité centrale de calcul, c'est-à-dire le microprocesseur, la mémoire de travail (ram) ainsi que la mémoire de stockage (via un fichier) sont directement accessibles aux machines virtuelles, alors que sur un émulateur l’unité centrale est simulée, les performances en sont donc considérablement réduites par rapport à la virtualisation.

Cette solution isole bien les OS invités, mais elle a un coût en performance. Ce coût peut être très élevé si le processeur doit être émulé, comme cela est le cas dans l’émulation. En échange cette solution permet de faire cohabiter plusieurs OS hétérogènes sur une même machine grâce à une isolation complète. Les échanges entre les machines se font via les canaux standards de communication entre systèmes d’exploitation (TCP/IP et autres protocoles réseau), un tampon d’échange permet d’émuler des cartes réseaux virtuelles sur une seule carte réseau réelle.

2.1.4Para virtualisation ou hyperviseur


Un hyperviseur est comme un noyau système très léger et optimisé pour gérer les accès des noyaux d'OS invités à l'architecture matérielle sous-jacente. Si les OS invités fonctionnent en ayant conscience d'être virtualisés et sont optimisés pour ce fait, on parle alors de para-virtualisation (méthode indispensable sur Hyper-V de Microsoft et qui augmente les performances sur ESX de VMware par exemple).

Actuellement l’hyperviseur est la méthode de virtualisation d'infrastructure la plus performante mais elle a pour inconvénient d’être contraignante et onéreuse, bien que permettant plus de flexibilité dans le cas de la virtualisation d'un centre de traitement informatique.

2.1.5Matériel


Le support de la virtualisation peut être intégré au processeur ou assisté par celui-ci, le matériel se chargeant, par exemple, de virtualiser les accès mémoire ou de protéger le processeur physique des accès vers les plus bas niveaux. Cela permet de simplifier la virtualisation logicielle et de réduire la dégradation de performances.

Partie n°3. LE PROJET

Présentation du projet


Mon projet a consisté à :

  • Comprendre le fonctionnement d’Hyper-V R2.

  • Installer et dimensionner un serveur de virtualisation.

  • Mettre en place et administrer des machines virtuelles sous Hyper-V.

  • Mettre en place un réseau virtuel reliant les machines virtualisé entre elles.

  • Virtualiser un serveur web comprenant une page accessible depuis les réseaux extérieurs.

  • Virtualiser un serveur permettant le partage de fichiers.

  • Faire communiquer ces machines virtualisés entres elles et avec le réseau existant.


Les différentes solutions de virtualisation


Parmi les acteurs les plus crédibles sur le marché de la virtualisation nous avons :

  • Microsoft Hyper-V couplé à Microsoft System Center Virtual Machine Manager ( SCVMM)

  • Citrix XenServer

  • VMware ESXi


Matériel supportés pour l’hôte

Pour commencer, parlons un peu du matériel. XenSever s’appuie sur une couche de pilotes Linux, ainsi, il sera facile de trouver un matériel compatible. De son côté VMware utilise ses propres pilotes. Cependant, ils sont très proches des pilotes Linux. Ainsi, un constructeur de matériel à peu de difficulté à faire certifier sont matériel pour VMware ESX. Pour sa part, Microsoft a fait le choix d’utiliser une autre technique, les pilotes doivent être installés dans la machine virtuelle. A contrario des solutions VMware et XenServer qui présentent un matériel différent (générique) à la machine virtuelle, Il n’y pas de pilote dans l’hyperviseur.

Il est donc difficile de comparer les matériels supportés “officiellement” par chacune de ses solutions, notamment pour celle Microsoft, qui, parce qu’elle n’est pas finalisée, n’a pas encore suscité l’intérêt des constructeurs. Bien entendu, il faut aussi rappeler qu’un pré-requis en termes de support chez ces éditeurs est d’utiliser du matériel dédié pour un usage serveur (HP, IBM, DELL, etc.).
Installation

En fonction de l’hyperviseur, l’installation sera différente. Dans le cas de VMware et XenServer, l’hyperviseur et une machine virtuelle un peu spécifique (service console ou driver domain) qui permet de contrôler l’hyperviseur sont installés en même temps. Avec Hyper-V, on installe d’abord un serveur Windows Server 2008 et un installe l’hyperviseur par la suite. Il vient alors se glisser entre le matériel et le système d’exploitation précédement installé.

Configuration de l’hôte

Voici un tableau récapitulatif des configurations possibles des machines hôtes :



Systèmes d’exploitation invités

Un des principaux avantages de la virtualisation est de pouvoir supporter des systèmes d’exploitation invités hétérogènes. Mais quand les hyperviseurs entrent dans l’entreprise, seule la matrice de compatibilité importe.

Commençons par les systèmes d’exploitation Windows. On peut constater que Windows Server 2008 n’est supporté que par Microsoft (VMware ne propose qu’un support expérimental) et que Windows NT4 (souvent utilisé pour reconditionner des serveurs obsolètent en machines virtuelles) n’est supporté que par VMware et Microsoft (qui n’en étend pas le support pour autant). Les versions 64 bits de Windows XP et Vista ne sont pas supportées par XenServer.

En environnement Linux, Redhat et SUSE sont supportés par tous les hyperviseurs. Ce sont d’ailleurs les seules distributions supportées par Microsoft.

D’autres distributions sont supportées comme Ubuntu chez VMware ou encore Debian, CentOS et Oracle Unbreakable chez Citrix.SUN Solaris est supporté aussi bien par VMware et par Microsoft. Pour les utilisateurs de Netware, il faut nécessairement se tourner vers VMware.

Réseau

Les trois solutions sont relativement équivalentes en ce qui concerne le réseau. Elles permettent toutes de mettre en place de la redondance, même si cette tâche est un plus fastidieuse en environnement XenServer qui requiert l’usage de l’outil en ligne de commande. Tous les produits supportent le standard 802.1q qui permet de créer des réseaux virtuels.
Stockage des disques virtuels

VMware utilise son propre format de disques virtuels, le format VMDK. Citrix utilise le format VHD de Microsoft. Les spécifications de ces deux formats de disques virtuels sont ouverts au public. Il est possible d’utiliser des disques virtuels mais aussi des disques physiques en accès direct (Raw Device Mapping, Passthrough Disk, etc.). En fonction des choix effectués, toutes ou partie des fonctionnalités apportées à la virtualisation ne seront plus disponibles (redimensionnement, snapshot, disque de démarrage de la VM, etc.).

Il est possible de stocker des machines virtuelles sur des baies SAN mais aussi sur des NAS et utiliser l’espace au travers de systèmes de fichiers réseau de type CIFS (Microsoft) ou NFS (Citrix et VMware).
Haute disponibilité

Côté sécurisation, Microsoft et VMware proposent tous les deux des possibilités de mise en cluster. En cas de disfonctionnement d’un des noeuds, les noeuds restants ré-instancient les serveurs virtuels affectés.

Microsoft utilise les fonctionnalités Windows 2008 Failover Clustering. Celui-ci est relativement complexe à mettre en oeuvre et requiert surtout de modifier de manière significative la configuration et le design de l’environnement virtuel.

Le cluster VMware HA profite de l’utilisation de son système de fichier VMFS qui permet à plusieurs serveurs VMware d’accéder simultanément à une partition. Le cluster VMware est donc particulièrement simple à gérer et à mettre en oeuvre. Par contre, l’expérience a démontré qu’il manque encore un peu de robustesse.

Chez Citrix, il semble que cette fonctionnalité soit peut être intégrée à l’aide du produit everRun VM de Marathon Technologies dans les mois qui viennent.
Déplacement des machines virtuelles à chaud

Point de salut pour la continuité d’activité sans une fonctionnalité permettant de limiter les arrêts programmés. VMotion chez VMware et XenMotion chez Citrix permettent de résoudre un problème majeur de la consolidation. Malheureusement, Microsoft Quick Migration ne permet pas de déplacer des machines virtuelles de manière transparente, ce qui limite fortement sont adoption dans des datacenters d’entreprise.

De son côté, VMware prend à nouveau de l’avance car il offre aujourd’hui la possibilité de déplacer l’exécution de la machine virtuelle, mais aussi son stockage avec Storage VMotion.
Gestion des ressources

Un des avantages de la virtualisation est de pouvoir maîtriser les ressources utilisées par chacune des machines virtuelles puisque toutes les opérations passent par l’hyperviseur. Ces ressources sont de type CPU, mémoire, entrées/sorties disques, entrées/sorties réseau.

Localement sur un serveur physique, la gestion des ressources par l’hyperviseur est la plus évoluée chez VMware, même si ses concurrents se valent. Par contre, au niveau d’un groupe de serveur, la solution VMware est la plus aboutie. Seule Microsoft semble développer une alternative avec PRO (Physical Resources Optimization).
Fonctionnalités exclusives

VMware est sans conteste le produit le plus abouti sur le marché, le plus cher, aussi. Par contre, certaines fonctionnalités ne sont supportées par aucune autre solution, notamment :

  • La surallocation mémoire

  • Système de fichier partagé

  • Le support de CDP (Cisco Discovery Protocol)

  • Une console de gestion Web

  • Déplacement à chaud du stockage des disques virtuels

  • Déplacement intelligent des machines virtuelles, à chaud

  • Gestion intelligente de l’alimentation des serveurs (expérimental)


Parlons un peu d’argent

D’un point de vue investissement, les différences sont très importantes. Les tarifs d’entrée de gamme son pourtant devenus très bas et comprennent déjà de nombreuses fonctionnalités. A partir de quelques 650 Euros pour une licence Windows Server 2008 Standard avec Hyper-V, environ 1000 Euros pour VMware Infrastructure 3 Foundation (1ère année de maintenance comprise), et gratuit chez Citrix avec XenServer Express (pas de support). Les prix sont tirés vers le haut lorsqu’on souhaite utiliser des fonctionnalités de type VMotion ou XenMotion. Jusqu’à 6000 Euros par serveur bi-processeur. A noter qu’à fonctionnalités équivalentes, VMware reste souvent le moins cher ! Le débat se fait donc essentiellement sur les fonctionnalités nécessaires pour atteindre les objectifs demandés.
Pour finir

Stratégiquement, Microsoft semble s’intéresser à fournir des produits de qualité pour la gestion de l’environnement virtuel pour séduire les clients, en attendant de disposer d’un hyperviseur plus mature qui pourra concurrencer les leaders actuels de ce marché.

Difficile de dire qui seront les acteurs de ce marché demain. La virtualisation est en phase de généralisation et sera un composant anodin demain. Cette forte concurrence permet de faire fondre les prix et améliore le quotidien des clients.

VMware dispose du produit le plus évolué mais la base installée de Microsoft devrait lui assurer une place de choix sur ce marché. Technologiquement, Citrix a un produit qui est le moins évolutif dans des datacenters de taille importante. Le créneau de Citrix risque essentiellement d’être les infrastructures VDI et constitue un bon socle technique pour cet usage.

Solution


La solution sur laquelle mon stage c'est déroulé est Hyper-V.

Les solutions de virtualisation Microsoft sont simplement plus efficaces que celles de VMware.

Car presque tout le monde connais déjà plus ou moins la plateforme Microsoft

VMware est une couche supplémentaire. Avec près de 90 % des tâches s'exécutant sur Windows aujourd'hui, Windows Server 2008 avec Hyper-V constitue une plateforme déjà familière aux administrateurs informatiques. Avec VMware, vous devez acquérir de nouvelles compétences.

Les solutions de virtualisation et d'administration Microsoft coûtent moins cher et apportent une valeur supérieure aux entreprises. La solution serveur de Microsoft coûte environ le tiers d'une solution VMware comparable.

Les entreprises déclarent de façon insistante qu'elles ne veulent pas de produits multiples, coûteux et complexes pour n'administrer que les systèmes virtuels, or c'est ce que propose VMware. Elles recherchent une solution intégrée qui administre à la fois les systèmes physiques et virtuels, ainsi que différents hyperviseurs, et c'est exactement ce que propose Microsoft.

Moyens et ressources


Pour mener à bien ce projet j'avais à ma disposition un serveur Dell Poweredge 1950.

Le serveur Dell PowerEdge 1950 offre un niveau de sécurité et une consommation d'énergie exceptionnels ainsi qu'une grande simplicité de gestion dans un châssis au format 1U haute densité pour les entreprises cherchant à condenser leur puissance de traitement en un espace réduit. Le serveur PowerEdge 1950 de Dell est un serveur à 2 sockets au format rack 1U qui combine des performances de virtualisation hors du commun et des capacités de virtualisation intégrées en usine (en option). Dell continue à simplifier la virtualisation en rationalisant le déploiement de solutions de virtualisation et en proposant des infrastructures virtuelles faciles à utiliser.

Sur lequel été installer Windows Serveur 2008 R2 DataCenter Edition en 64 Bits.
Le déploiement de la solution de virtualisation Hyper-V de chez Microsoft nécessitant :

  • Une configuration hardware compatible : Processeur supportant la virtualisation

  • Une installation de Windows Server 2008 version 64 bits


Partie n°4. MISE EN PLACE DU PROJET




4.1Installation du rôle Hyper-V


Lancer la console « Server Manager », puis cliquer droit sur « Roles » et choisir d’ajouter un rôle



L’assistant se lance. Cliquer sur « Next », puis choisir le rôle « Hyper-V »

Cliquer sur « Next » pour procéder à l’installation. Un redémarrage du serveur est nécessaire.

Après redémarrage, le rôle est installé :

4.2Console d'administration


La console MMC d’administration d’Hyper-V est intuitive. A gauche, on retrouve les différents hôtes Hyper-V, au centre, les différentes machines virtuelles ainsi que les points de sauvegarde. La partie de droite représente toutes les actions possibles.



4.3Création d'un réseau virtuel


Avant de créer une machine virtuelle, nous allons créer un réseau virtuel. Dans la partie "Action", il suffit de sélectionner "Virtual Network Manager".

Trois possibilités s'offrent à nous :

  • Externe: Permet d’utiliser une carte réseau présente physiquement sur l’hôte. Il faut utiliser ce type de réseau pour permettre la communication entre la machine virtuelle et le réseau LAN/WAN.

  • Interne: Permet la communication entre les machines virtuelles ainsi qu’avec la machine hôte. Il n’utilise pas de carte réseau physique de l’hôte

  • Privée: Permet la communication entre les machines virtuelles uniquement.




La création d'une interface externe va nous obliger de lui associer une interface réseau de la partition parente. L'interface virtuelle permettre aux machines virtuelles d'accéder au réseau de la carte réseau physique. Le seul problème, c'est que l'interface réseau physique n'est plus utilisable.

4.4Création d’une machine virtuelle


Dans la partie "Action", il suffit de sélectionner "New" puis "Virtual Machine".


Il faut alors indiquer le nom de la machine virtuelle. Ajuster sa mémoire à allouer à la machine virtuelle. Sélectionner le réseau dans lequel elle ferra partie

Créer le disque dur, parmi ces 3 choix :

  • Créer un nouveau disque virtuel

  • Utiliser un disque dur existant

  • Attacher un disque virtuel plus tard


L’écran suivant présente un résumé de la configuration.

Il suffit pour finir de cliquer sur suivant et la machine virtuelle est créer, elle est alors visible dans la console d'administration.

Pour la suite de il suffit d'insérer un CD-Rom d'installation dans la machine physique ou alors lors de la création de la machine préciser que l'installation se ferra à partir d'une image ISO par exemple.

L'installation se déroule normalement, comme sur une machine physique, pour tous les systèmes d'exploitation Windows, je n'ai rencontré aucun problème que ce soit dans la virtualisation de Windows Seven, Windows XP ou de Windows Serveur 2003.

J'ai aussi tenté de virtualiser plusieurs version de Linux (Ubuntu, Debian, RedHat, Suse). Les installations se sont biens déroulés, seul bémol les drivers, il faut alors installer en complément les composants d’intégration Linux. Ces outils permettent une meilleure prise en charge du système en fournissant les drivers nécessaires à son exécution tels que les drivers réseaux et souris.

4.5Communication des machines virtuelles entres-elles


Le but étant d'arriver à une configuration tel quel :


Il a fallut créer 2 interface réseau virtuelle, une que j'ai appelé VLAN_IN (de type Interne), qui permette au machines virtuelles de communiquer entres elles et une interface VLAN_OUT (de type Externe) qui elle permetter aux machines virtualisé de communiquer avec la machine hôte et donc les autres machines présentes sur le réseau.

Partie n°5. CONCLUSION



La virtualisation semble être la solution vers laquelle se tournent nombre d’entreprises aujourd’hui, car elle présente de nombreux avantages. Ceci dit elle est bien plus compliqué qu'elle n'y parait et il est facile de faire des erreurs.
Pour conclure, je peux dire que ce stage m'a vraiment apporté beaucoup de choses, de nouveaux

savoirs et de nouvelles expériences. L'hypothèse de me spécialiser dans la virtualisation ne me déplairait pas, c'est une nouvelle technologie qui est en plein essor, qui a de l'avenir.

Partie n°6. ANNEXES




- Attestations des stages
- Tableau récapitulatif des activités à caractère professionnel



BTS Informatique de Gestion - Session 2010



similaire:

Note de synthèSE iconNote de synthese

Note de synthèSE iconNote de synthese

Note de synthèSE iconNote de synthese 6

Note de synthèSE iconNote explicative de synthèse

Note de synthèSE iconNote explicative de synthèSE

Note de synthèSE iconNote mensuelle d’analyses de Février 2016 d’
«Synthèse» de la Note mensuelle d’analyses de Février 2016 d’

Note de synthèSE iconNote mensuelle d’analyses de Février 2016 d’
«Synthèse» de la Note mensuelle d’analyses de Février 2016 d’

Note de synthèSE iconLa Note de Synthèse
«sites centraux» et externes (fournisseurs d'équipements matériels et logiciels ou prestataires de services). Ce sont des fonctions...

Note de synthèSE iconNote de synthèse
«Hier, un berger, aujourd’hui un seigneur», tels sont les mots que Gaudi accola au blason qu’il imagina pour l’homme d’affaires....

Note de synthèSE iconSynthèse du rapport 54








Tous droits réservés. Copyright © 2016
contacts
ar.21-bal.com