TP Hyper V v2
TP Hyper V v2
TP Hyper V v2
Technologies de virtualisation
Hyper-V
1. Présentation de l’architecture du TP
2. Présentation d’Hyper-V
3. Installation et configuration d’Hyper-V
4. Gestion et administration d’Hyper-V
5. Les commutateurs virtuels
6. Création et gestion des machines virtuelles
7. Concept de migration de machine virtuelle
8. Stockage sous Hyper-V
9. Hyper-V, la convergence et l’hyperconvergence avec Windows Server
10. Hyper-V Over SMB
11. Conception d’un cluster Hyper-V en Workgroup
12. Présentation de SCVMM
Chaque machine est équipée de Windows Serveur 2016 ou à défaut de Windows Serveur 2012 R2.
Attention aux adresses IP : elles devront être différentes suivant les groupes et donc être modifiées par rapport à
l’architecture type donnée ci-dessous.
1. Présentation de l’architecture du TP
Élément Description Réseau LAN IP Live Réseaux IPLAN
Stockage Migration HA
DC01 Contrôleur de domaine 192.168.2.0 /24 N/A N/A N/A 192.168.2.1
VH01 Serveur Hyper-V 192.168.2.0 /24 172.16.1.3 10.10.11.1 10.10.10.1 192.168.2.2
01 172.16.1.4
VH02 Serveur Hyper-V 192.168.2.0 /24 172.16.1.5 10.10.11.2 10.10.10.2 192.168.2.3
02 172.16.1.6
VH03 Serveur Hyper-V 192.168.3.0 /24 N/A N/A N/A 192.168.3.1
03 (site secondaire) (Site secondaire) (site secondaire)
vStore01 Serveur de stockage N/A 172.16.1.1 N/A N/A N/A
172.16.1.2
SRVSMB01 Serveur de stockage 192.168.2.0 /24 N/A N/A N/A 192.168.2.4
(mode fichier)
VH01 : premier serveur Hyper-V 2016, qui sera également un nœud du futur cluster.
VH03 : troisième serveur Hyper-V 2016, sur lequel les VMs seront répliquées avec Hyper-V Replica pour la mise
en œuvre d’un PRA (Plan de reprise d’activité).
vStore01 : le serveur de stockage qui va fournir les cibles iSCSI pour le stockage des VMs, le stockage sera mis
en œuvre grâce à la technologie de convergence : les Storage Spaces.
SRVSMB01 : serveur SMB qui aura pour but d’héberger les machines virtuelles d’Hyper-V dans un partage SMB3
(Hyper-V Over SMB).
1
LP ISVD Virtualisation des systèmes 2017-2018
Serveur de virtualisation
Les serveurs de virtualisation doivent supporter la virtualisation. Ils doivent donc posséder un processeur 64 bits
qui permet la virtualisation matérielle telle que Intel-V (Intel Virtualization) chez Intel ou encore AMD-V pour (AMD
Virtualization) chez AMD, ainsi que la gestion du SLAT (Second-Level address Translation).
Première étape :
Vérifier que vos serveurs respectent bien les prérequis d’Hyper-V lancez une fenêtre CMD et lancez l’application
suivante : Systeminfo.exe.
Ensuite, allez au niveau de la ligne Hyper-V Requirements et vérifiez que tous les éléments sont à YES.
Nested Virtualization
Vous pouvez utiliser des logiciels de virtualisation pour organiser ce TP de manière virtualisée.
De ce fait, vous allez utiliser le Nested Virtualization, c’est-à-dire que vous allez devoir virtualiser des
hyperviseurs, plusieurs choix s’offrent à vous :
Afin d’utiliser le Nested Virtualization sur votre station de travail, il est recommandé d’utiliser une station avec au
moins 16 Go de RAM, ainsi qu’un Processeur 64 bits qui prend en charge la virtualisation matérielle (Intel-VT).
2. Présentation d’Hyper-V
Hyper-V est la plateforme de virtualisation Microsoft qui permet de créer des infrastructures virtuelles
sous Windows ou / et Linux. Hyper-V permet de faire cohabiter de manière isolée plusieurs systèmes
d’exploitation sur une même machine physique (Hyperviseur).
Hyper-V a vu le jour avec Windows Server 2008, depuis, plusieurs versions sont sorties, plusieurs
nouveautés et améliorations sont apportées dans chaque nouvelle version, cela permet à Hyper-V et à
Microsoft de s’accroître dans le marché de la virtualisation afin de concurrencer le leader du marché
Vmware avec leur suite vSphere.
Hyper-V est un hyperviseur de type 1 en mode Micronoyau, qui fonctionne avec des isolements d’unité
logique ou "Partitions". Ces unités logiques isolées vont faire exécuter des systèmes d’exploitation
invités. Afin d’accéder au matériel physique de l’hyperviseur (carte réseau, etc.) ces unités logiques
(machines virtuelles) devront passer par la machine virtuelle principale, autrement dit la partition parent
qui permet de faire la communication entre les partitions enfants (machine virtuelle) et le matériel
physique.
Hyper-V est conçu pour gérer des systèmes d’information de production, il offre plusieurs scénarios :
- Haute disponibilité
- Flexibilité
- Plan de reprise d’activité
Hyper-V sur Windows client n’a pas beaucoup de différence avec Hyper-V sur Windows Server. Par
contre, ils se différencient au niveau de la gestion de la mémoire. Hyper-V sur Windows Server gère la
mémoire avec l’hypothèse que seules les machines virtuelles sont en cours d’exécution sur le serveur.
2
LP ISVD Virtualisation des systèmes 2017-2018
Tandis qu’Hyper-V sur Windows, la gestion de la mémoire est un peu différente dans le sens où il permet
le lancement de machines virtuelles ainsi que d’autres applications en même temps sur le même
ordinateur, ce qui permet à un utilisateur par exemple d’utiliser une application lourde et d’exécuter
plusieurs machines virtuelles sur la même station de travail en même temps.
Les fonctionnalités suivantes ne sont pas disponibles pour la version Hyper-V sur Windows :
- Hyper-V Replica
- Remote FX capability to virtualize GPUs qui permet d’améliorer l’expérience graphique 3D des
utilisateurs dans les architectures VDI (Virtual Desktop Infrastructure) permet la redirection des
périphériques USB
- SRIOV (Single-Root Input/Output Virtualization)
- Disque VHDx partagé
- Port virtuel Fibre Channel
- Live Migration d’un hôte Windows vers un autre hôte Windows
La version core de Windows Server 2016 offre les mêmes fonctionnalités que la version complète, hormis
l’interface graphique, car un serveur core ne contient pas d’interface graphique, ce qui permet d’apporter
plusieurs avantages au niveau de la consommation, et au niveau de la sécurité du serveur.
Active Directory
Afin de réaliser notre infrastructure cible Hyper-V hautement disponible, un domaine active directory est
nécessaire.
Avant d’installer Active Directory sur le serveur DC01, il faut procéder à sa configuration.
Configuration du serveur
Le serveur DC01 qui est déjà installé (Windows Server 2012 R2 ou 2016 version complète) doit être
configuré comme ceci :
Élément Valeur
Nom DC01
Adresse IP 192.168.2.1
Masque de sous-réseaux 255.255.255.0
Passerelle par défaut 192.168.2.254
Serveur DNS préféré 127.0.0.1
Mettre le serveur à jour Windows Update
Une fois que vous avez configuré votre serveur comme ceci, vous pouvez passer à l’installation d’Active
Directory.
Dans cette section, nous allons voir l’installation d’Active Directory en ajoutant le rôle AD DS (Active
Directory Domain Services) ainsi que la promotion de notre serveur DC01 en tant que contrôleur de
domaine.
3
LP ISVD Virtualisation des systèmes 2017-2018
À l’issue de l’installation, vous devez promouvoir votre serveur DC01 en tant que contrôleur de domaine
Active Directory.
Il faut créer une nouvelle forêt avec le nom de domaine racine : Lab.com. Cliquez sur Suivant et suivez
les instructions de l’assistant.
Laissez le nom de domaine NetBIOS comme ceci : LAB, et cliquez sur Suivant.
Vous devrez avoir normalement une fenêtre qui confirme ce que vous avez configuré, et la possibilité
également de télécharger le script PowerShell qui vous permet de faire des déploiements d’Active
Directory de manière automatisée.
Vous devez avoir une configuration qui respecte les prérequis pour promouvoir votre serveur en
contrôleur de domaine dans les bonnes conditions.
Une fois la configuration requise vérifiée, vous pouvez cliquer sur Installer.
Redémarrez votre serveur DC01 à la fin de l’installation. Après le redémarrage de votre serveur, Active
Directory sera fonctionnel.
Vous pouvez également promouvoir votre serveur en tant que contrôleur de domaine avec le script
PowerShell suivant :
Import-Module ADDSDeployment
Install-ADDSForest `
-CreateDnsDelegation:$false `
-DatabasePath "C:\Windows\NTDS" `
-DomainMode "WinThreshold" `
-DomainName "Lab.com" `
-DomainNetbiosName "LAB" `
-ForestMode "WinThreshold" `
-InstallDns:$true `
-LogPath "C:\Windows\NTDS" `
-NoRebootOnCompletion:$false `
-SysvolPath "C:\Windows\SYSVOL" `
-Force:$true
Créez un utilisateur avec les droits administrateurs afin de réaliser toutes les opérations liées à l’Active
Directory.
Cette section vous présente les manipulations à faire afin de configurer les serveurs de l’infrastructure
cible.
L’Active Directory est installé et configuré, il faut donc joindre les serveurs au domaine Lab.com. Pour
cela, il est nécessaire de faire quelques configurations au niveau des serveurs telles que :
- Configuration des noms de serveurs
- Configuration réseau
4
LP ISVD Virtualisation des systèmes 2017-2018
Rename-Computer Nouveau_Nom
Vous devez renommer vos deux serveurs comme ceci : VH01 et VH02.
Configuration réseau
Cette section montre la configuration IP de chaque hyperviseur (VH01 et VH02) pour le réseau de
production afin qu’ils puissent être joints au domaine.
Voici le script qui permet de configurer les cartes réseau LAN de chaque hyperviseur (VH01 et VH02) :
VH01 :
$LAN ="LAN"
New-NetIPAddress -InterfaceAlias $LAN -IPAddress 192.168.2.2 -PrefixLength
24 -DefaultGateway 192.168.2.254 -AddressFamily IPv4
VH02 :
$LAN ="LAN"
New-NetIPAddress -InterfaceAlias $LAN -IPAddress 192.168.2.3 -PrefixLength
24 -DefaultGateway 192.168.2.254 -AddressFamily IPv4
Il est conseillé de vérifier la connectivité entre les serveurs VH01 et VH02 et le contrôleur de domaine
DC01.
Jonction au domaine
La configuration réseau est terminée, nous pouvons désormais procéder à l’ajout des serveurs à notre
domaine.
Une unité d’organisation Servers contiendra tous les serveurs de l’infrastructure.
$OU ="OU=Servers,DC=LAB,DC=COM"
$Domain ="LAB.COM"
$Cred ="LAB\adm-util"
Une fois que les serveurs sont bien configurés et joints au domaine, l’installation d’Hyper-V pourra
commencer.
5
LP ISVD Virtualisation des systèmes 2017-2018
Installation d’Hyper-V
Cette section présentera l’installation d’Hyper-V sous différentes formes et différents modes :
- Via le Gestionnaire de serveur
- En PowerShell
- Sur un serveur core
- Sur un Nano Server
L’installation d’Hyper-V se fera de la manière suivante, sur VH01 Hyper-V sera installé de manière
graphique via le Gestionnaire de serveur, tandis que sur VH02, il sera installé en PowerShell. Ceci dans le
but de montrer plusieurs manières d’installation, en interface graphique et en PowerShell.
Allez dans le Gestionnaire de serveur de votre serveur VH01 et cliquez sur Ajouter des rôles et
fonctionnalités.
Choisissez ensuite le rôle Hyper-V et ajoutez les outils d’administration ainsi que le module PowerShell
en cliquant sur Ajouter des fonctionnalités, et cliquez sur Suivant.
Laissez tous les paramètres par défaut, et cliquez sur Suivant jusqu’à ce que vous arriviez sur la fenêtre
Confirmation.
À l’issue du redémarrage du serveur VH01, il est possible de vérifier la présence du rôle Hyper-V avec la
commande suivante :
Get-WindowsFeature Hyper-V*
Pour installer Hyper-V sur un serveur core, une fois connecté sur le serveur, saisissez PowerShell dans
l’invite de commande. Et lancez l’installation avec la commande suivante :
Nano Server est un nouveau mode d’installation de Windows Server 2016. Nous avons désormais trois
modes d’installation en fonction des besoins :
- Installation version complète
- Installation version core
- Installation Nano Server
Ce nouveau mode d’installation offre des serveurs prêts à l’emploi de manière très rapide, conçus pour
des applications type cloud, avec une brique qui est encore plus basse que le serveur core et plus légère.
Les nano serveurs offrent des environnements très denses, tels que des hyperviseurs HyperV,
Des environnements de stockage ou encore de haute disponibilité avec le clustering. Les nano serveurs
peuvent également être Container Host et héberger des containers.
6
LP ISVD Virtualisation des systèmes 2017-2018
Les nano serveurs contiennent le strict minimum au niveau composants et logiciels afin de rendre ces
derniers les plus légers et surtout les moins vulnérables possible. Autrement dit, pas d’interface
graphique, Les nano serveurs sont administrables via PowerShell à distance ou alors avec les outils de
gestion à distance.
Les nano serveurs possèdent plusieurs avantages qui pourront faciliter le quotidien des administrateurs,
mais également sécuriser leur infrastructure.
- Moins de patchs critiques pour le système (92 % en moins).
- Un redémarrage ultrarapide comparé aux autres versions de Windows Server 2016.
- Moins de consommation au niveau mémoire, consomme moins qu’un serveur Linux.
- 93 % de moins au niveau de la taille du VHD (environ 400 MB).
- 80 % de moins de reboot.
- Une surface d’attaque très réduite, donc moins vulnérable aux attaques.
- Rapidité de déploiement.
- Support de plusieurs scénarios d’utilisation.
Nous allons voir ici l’installation de Nano Server sur une machine virtuelle sous Hyper-V.
Une fois le serveur Windows Server 2016 installé, il est possible de monter l’ISO Windows Server 2016
dessus.
Une fois monté, on trouvera un dossier spécial NanoServer.
Tout va se passer avec le dossier NanoServer. Ce dernier contient les éléments suivants :
- Les packages pour l’installation des différents rôles sur l’image Nano Server.
- Le script de création de l’image Nano Server.
- L’image Wim Windows Server sur laquelle la création de l’image Nano Server va se baser.
- Un module PowerShell qui permettra la création de l’image Nano Server.
Copiez l’ISO de Windows Server 2016 dans le dossier C:\Temp du serveur Hyper-V VH01, et créez un
dossier Nano dans la racine C :
Montez l’ISO Windows Server 2016, allez dans l’ISO et allez dans le dossier
NanoServer\NanoServerImageGenerator. Copiez les fichiers suivants dans C:\Nano.
- ConvertWindowsImage.PS1
- NanoServerImageGenerator.PSM1
Pour information :
Étape 1 :
Cd C:\Nano
Import-Module NanoServerImageGenerator.psm1
7
LP ISVD Virtualisation des systèmes 2017-2018
Étape 2 :
Lors de l’application du script de création, un mot de passe administrateur sera demandé, ce mot de
passe servira pour l’authentification au niveau du Nano Server.
Si l’extension du futur disque dur virtuel est en VHDx, la génération de la VM devra être de génération 2,
si le disque virtuel est de type VHD, la machine virtuelle devrait être de génération 1.
-DeploymentType correspond au type d’image Nano Server. Avec le paramètre Guest, ce sera une
machine virtuelle qui sera hébergée sous Hyper-V, tandis que le paramètre Host permet d’avoir une
image Nano Server qui sera hébergée sur un serveur physique directement.
-BasePath : répertoire de base qui contient tous les fichiers liés au Nano Server tels qu’un VHDx de
base et l’image Wim Nano.
-ComputerName : nom du serveur, ça sera le nom de l’objet quand il sera ajouté dans le domaine
Lab.com.
Il y a également un emplacement où se trouvent les logs afin de vérifier s’il y a des erreurs lors de la
génération du VHDx Nano Server :
C:\Users\ADMINI~1.LAB\AppData\Local\Temp\NanoServerImageGenerator.log.
À l’issue de la création, le VHDx Nano Server se trouve dans le dossier suivant : C:\Nano\Nano1.vhdx.
Il est intéressant de noter la taille initiale du VHDx Nano Server, qui est de 676 Mo.
Le VHDx Nano Server est créé, il sera donc possible de créer une machine virtuelle et attacher ce disque
virtuel.
Il est possible également d’installer Nano Server directement dans Microsoft Azure, avec une image déjà
prête à l’emploi. Pour cela, vous devez avoir un abonnement Microsoft Azure.
Une fois que le VHDx Nano Server est créé, il est possible d’ajouter plusieurs rôles et fonctionnalités via
des packages (.CAB).
Le tableau ci-dessous montre les rôles avec leur nom qui sont supportés dans Nano Server :
8
LP ISVD Virtualisation des systèmes 2017-2018
Les packages (.cab) se trouvent dans le dossier NanoServer\Packages et dans le dossier (fr-FR) une fois
l’ISO de Windows Server 2016 monté.
L’installation d’Hyper-V sur Nano Server peut se faire directement en console et de manière très simple.
Le système va monter l’image, ajouter le package (Hyper-V) et démonter l’image par la suite. C’est la
méthode offline d’ajout de package au Nano Server.
À ce stade, Hyper-V est installé sur le Nano Server, la gestion d’Hyper-V sous Nano peut se faire soit en
PowerShell, en PowerShell Direct ou alors en interface graphique en ajoutant un groupe de serveurs dans
le Gestionnaire de serveur, et accéder à l’Hyper-V installé sur un serveur distant via un Gestionnaire
Hyper-V par exemple.
Le serveur Nano Server sera configuré afin qu’il puisse être joint au domaine, pour cela, il faut configurer
ses paramètres TCP/IP.
Le serveur Nano Server est configuré, il reste à créer une machine virtuelle, faire pointer le VHDx dessus
et la joindre au domaine.
Avec le Gestionnaire Hyper-V, il est possible de configurer plusieurs paramètres d’Hyper-V tels que le
stockage par défaut des disques durs virtuels, la gestion des GPUs physiques ou encore le
fractionnement NUMA.
La console de paramètres Hyper-V se présente comme ceci avec deux parties de paramétrage :
- Serveur : paramètres du serveur HyperV
9
LP ISVD Virtualisation des systèmes 2017-2018
Paramètres serveur
Disques durs virtuels permet d’indiquer l’emplacement des disques durs virtuels des machines
virtuelles (il peut être changé en fonction des besoins).
Ordinateurs virtuels permet d’indiquer l’emplacement des fichiers de configuration des machines
virtuelles (il peut être changé en fonction des besoins).
GPU physiques : cette partie gère le Remote Fx avec la carte graphique de l’hyperviseur.
Fractionnement NUMA : partie qui permet le fractionnement des noeuds NUMA (Non Uniform Memory
Architecture). Cela permet une optimisation de l’hyperviseur en lançant davantage de machines virtuelles
au même moment.
Migrations dynamiques : partie qui permet de configurer la migration des machines virtuelles entre un
Hyper-V A vers un Hyper-V B et inversement.
De plus, il est possible de configurer le réseau de migration si l’hyperviseur dispose d’un réseau dédié
pour la migration de machine virtuelle, ou alors laisser la configuration par défaut, ce qui se traduit par
l’utilisation de n’importe quel réseau disponible au niveau de l’hyperviseur pour d’effectuer la migration.
Cette fonction n’est pas activée par défaut.
Migrations du stockage : cette partie permet la migration du stockage (des disques virtuels et fichiers
de configuration) des machines virtuelles. Il est possible de modifier le nombre de migrations du
stockage simultané, par défaut, la valeur est fixée à 2.
Avec cette fonction, il est possible de migrer les fichiers des machines virtuelles (disques durs virtuels,
fichier de configuration, etc.) d’un emplacement A vers un emplacement B au sein du même hyperviseur.
Stratégie de mode de session étendu : son activation permet d’avoir des connexions en mode
session étendue une fois connecté sur les machines virtuelles qui sont en cours d’exécution sur
l’hyperviseur.
Cela permet une redirection des périphériques et ressources locaux depuis l’ordinateur qui effectue la
connexion aux machines virtuelles, dans le but d’avoir une meilleure expérience utilisateur avec les
machines virtuelles.
10
LP ISVD Virtualisation des systèmes 2017-2018
Paramètres utilisateurs
Clavier : configuration de l’utilisation des combinaisons de touches Windows avec les machines virtuelles
une fois connecté à la console de la VM.
Mode de session étendu : utilisation du mode session étendue ou non lorsque celui-ci est disponible
dans un système d’exploitation d’une machine virtuelle.
Administration d’Hyper-V
Il est possible de gérer, d’administrer et de créer des ressources virtuelles (Disques durs virtuels,
commutateurs virtuels, machines virtuelles) directement à partir du Gestionnaire Hyper-V en local.
Il est également possible d’administrer et de gérer Hyper-V 2016 directement à distance depuis un autre
Gestionnaire Hyper-V en se connecter sur l’Hyper-V que l’on souhaite administrer.
Une des nouveautés dans Hyper-V 2016, c’est la possibilité de choisir d’autres identifiants pour gérer un
Hyper-V à distance.
Il est possible également de gérer Hyper-V directement depuis une station de travail Windows 8,
Windows 8.1, Windows 10 en ajoutant la fonctionnalité Outils d’administration Hyper-V.
Il est possible de gérer Hyper-V (version core ou complète) via PowerShell directement en local ou à
distance. En installant Hyper-V 2016, un module Hyper-V avec plusieurs commandes est disponible :
La gestion en PowerShell se fait soit directement sur le serveur Hyper-V en question, en local, ou alors
à distance.
Afin de se connecter sur un serveur Hyper-V distant en PowerShell il est nécessaire d’activer PowerShell
Remoting sur tous les serveurs qui seront gérés à distance.
Ici, nous allons nous connecter via une session PowerShell à distance sur le serveur VH02 qui a pour
adresse IP (192.168.2.3) depuis le serveur VH01.
Enable-PSRemoting
Ensuite, ajoutez dans le trustedHost le serveur qui sera géré via une session PowerShell à distance :
Restart-Service WinRM
11
LP ISVD Virtualisation des systèmes 2017-2018
À ce stade, vous êtes en mesure de vous connecter sur un Hyper-V (version core ou complète) à
distance via une session PowerShell.
La gestion des commutateurs virtuels se passe dans le volet droit du Gestionnaire Hyper-V dans le menu
Gestionnaire de commutateurs virtuels.
Un commutateur virtuel de type "privé" permet de faire communiquer toutes les machines virtuelles
entre elles, ces machines virtuelles doivent être connectées au même commutateur virtuel de type
"privé".
Avec ce type de commutateur, les machines virtuelles sont isolées, car elles ne peuvent pas
communiquer avec l’hôte de virtualisation Hyper-V qui les héberge ni avec l’environnement extérieur
(comme d’autres serveurs, ou sortir sur Internet).
Pour créer un commutateur virtuel privé, sélectionnez Privé, puis cliquez sur Créer le commutateur
virtuel.
La création d’un commutateur virtuel de type privé en PowerShell se fait avec la commande suivante :
Get-VMSwitch
Un commutateur de type "interne" permet de faire communiquer les machines virtuelles entre elles, de
plus il permet la communication entre les machines virtuelles qui sont attachées à ce commutateur
virtuel interne et l’hôte de virtualisation Hyper-V qui les héberge.
Les machines virtuelles ne peuvent toujours pas communiquer avec des environnements extérieurs tels
que des serveurs qui sont en dehors de l’hyperviseur.
Ce type de commutateur virtuel n’est pas lié à la carte réseau physique de l’hyperviseur.
Voici un schéma qui permet de représenter les flux possibles dans un commutateur virtuel de type
interne :
Cas d’utilisation : isolement des machines virtuelles du réseau extérieur / LAB
Pour créer un commutateur virtuel interne, sélectionnez Interne puis cliquez sur Créer le
commutateur virtuel.
Remarquez qu’il est possible d’activer l’identification de VLAN (Virtual Local Area Network) si
l’hyperviseur Hyper-V se trouve dans un VLAN particulier, afin de permettre la communication entre les
machines virtuelles qui sont attachées à ce commutateur virtuel interne. La carte réseau physique devra
permettre la gestion des VLANs.
La création d’un commutateur virtuel de type interne en PowerShell peut se faire avec la commande
suivante :
12
LP ISVD Virtualisation des systèmes 2017-2018
Get-VMSwitch
Les commutateurs de type "externe" permettent aux machines virtuelles de communiquer entre elles,
avec l’hyperviseur qui les héberge ainsi que des éléments externes dans le réseau de l’entreprise tel que
les serveurs de fichiers, les contrôleurs de domaines, Internet, etc.
Ce type de réseau est basé sur la carte réseau physique de l’hyperviseur, c’est pour cette raison, qu’il
offre la possibilité aux machines virtuelles de communiquer avec des éléments extérieurs.
Pour créer un commutateur virtuel Externe, les actions sont similaires à la création des commutateurs
virtuels de type interne ou privé, sauf qu’ici, il faudra choisir la carte réseau sur laquelle le commutateur
virtuel sera pointé.
Avant de commencer la création, il est recommandé de bien identifier la carte réseau qui sera attachée à
ce commutateur virtuel, une fois identifiée, on peut créer le commutateur virtuel.
Ici, nous allons attacher notre commutateur virtuel de type externe à la carte LAN. Pour cela, il suffit de
cliquer droit dessus,
Cliquez ensuite sur Propriété, la fenêtre suivante s’affiche, et remarquez la valeur Connexion en
utilisant. C’est cette valeur qui va nous permettre d’identifier notre carte réseau au moment de la
création du commutateur virtuel de type externe.
Dans notre exemple, la valeur est : Intel(R) 82574L Gigabit Network Connection #6.
Allez dans le gestionnaire de commutateur virtuel, sélectionnez le type Externe et cliquez sur Créer le
commutateur virtuel.
Nommez le commutateur et choisissez la carte réseau qui sera attachée à ce commutateur virtuel. Dans
notre exemple, c’est la carte réseau LAN Intel(R) 82574L Gigabit Network Connection #6, que nous
avons vérifiée précédemment.
Une fois la carte réseau sélectionnée, il faudra configurer deux autres options :
SRIOV est une technique qui permet d’avoir des gains de performance réseau au niveau des machines
virtuelles, elle permet à chaque machine virtuelle d’accéder à la carte réseau physique de l’hyperviseur
comme si cette dernière était directement attachée à la machine virtuelle. Cela améliore grandement les
performances réseau des machines virtuelles.
Dans notre cas, nous allons autoriser le système de gestion à partager cette carte réseau, donc nous
accéderons à notre hyperviseur via cette carte directement, et pas d’activation de SRIOV (car notre carte
réseau ne le supporte pas).
Remarquez qu’il est possible d’activer la gestion des VLAN comme dans les commutateurs de type
interne.
13
LP ISVD Virtualisation des systèmes 2017-2018
Nous allons créer ici un commutateur de type externe en PowerShell. Pour cela, il faut d’abord supprimer
le commutateur de type externe créé précédemment en interface graphique.
Pour effacer un commutateur virtuel, il suffit de taper la commande PowerShell suivante :
Remove-VMSwitch -Name Externe -Force
Get-VMSwitch
Pour créer un commutateur virtuel de type externe en PowerShell, passer la commande suivante :
Le commutateur virtuel de type externe pointe bien vers la carte réseau LAN.
Vérification avec le gestionnaire de commutateur virtuel afin de voir tous les commutateurs créés.
Historiquement Hyper-V dispose des trois types de commutateurs virtuels (privé, interne, externe).
Une des nouveautés dans Hyper-V 2016 est les commutateurs de type NAT. Ce commutateur virtuel va
permettre aux machines virtuelles d’avoir leur propre adressage IP interne, et utilise les mécanismes du
NAT afin de faire communiquer les machines virtuelles connectées dessus avec d’autres éléments
extérieurs tels que d’autres serveurs, etc.
La création et la gestion des commutateurs virtuels de type NAT se font uniquement en PowerShell pour
l’instant.
-Name : le nom du commutateur virtuel NAT ; ce sera également le nom de la carte réseau virtuelle.
À l’issue de la création du commutateur, une carte réseau est créée au niveau de l’hyperviseur.
Pour la suite, nous avons besoin de l’index de cette interface. Afin de le récupérer, il suffit de lancer la
commande PowerShell suivante : Get-NetAdapter
(La passerelle de toutes les machines virtuelles qui seront connectées sur ce commutateur virtuel «
commutateur NAT »)
14
LP ISVD Virtualisation des systèmes 2017-2018
-IPaddress : l’adresse IP de la carte réseau et la passerelle des machines virtuelles connectées sur
ce commutateur.
Une fois cette commande PowerShell lancée, il est possible de contrôler son fonctionnement en vérifiant
le paramètres TCP/IP de la carte réseau virtuelle vEthernet (CommutateurNAT).
On peut voir l’IP et le masque de sous-réseau configurés.
Les machines virtuelles connectées sur ce commutateur virtuel auront une adresse IP dans ce réseau
spécifié.
Pour cela, lancez la commande PowerShell suivante :
À ce stade, le commutateur virtuel de type NAT est créé, sa présence peut se vérifier au niveau du
gestionnaire de commutateur virtuel Hyper-V.
Une fois créé, on verra également apparaître une carte réseau virtuelle avec une adresse IP
(192.168.10.1) dans le réseau fixé au moment de la création du commutateur virtuel.
Les machines virtuelles connectées à ce commutateur devront avoir comme passerelle par défaut
l’adresse IP de cette carte réseau NAT, autrement dit : 192.168.10.1 si vous êtes en configuration
manuelle.
Il est possible également de distribuer ces adresses IP directement via un serveur DHCP, on peut utiliser
DHCP Server for Windows.
DHCP Server for Windows va se baser sur le réseau NAT créé sur le commutateur NAT virtuel et
distribuer des adresses IP de manière automatique aux machines virtuelles qui sont connectées au
commutateur virtuel de type NAT.
Cliquez ensuite sur dhcpwiz.exe afin de lancer l’assistant d’installation du DHCP Server for Windows.
Il est possible ici de configurer d’autres protocoles tels que http, TFTP, ainsi qu’un redirecteur DNS.
L’étape suivante est la configuration du pool DHCP. Par exemple dans notre cas, le serveur DHCP
distribuera des adresses IP aux machines virtuelles de 192.168.10.10 jusqu’à 192.168.10.40.
Dans les options avancées, il faut spécifier la passerelle par défaut et le serveur DNS que le DHCP
distribuera en même temps que les adresses IP.
Le serveur peut être configuré comme un service Windows, si c’est le cas, il est nécessaire de configurer
les règles du firewall afin d’autoriser les flux du DHCP Server.
15
LP ISVD Virtualisation des systèmes 2017-2018
Il est possible de créer des règles de redirection NAT avec le commutateur virtuel de type NAT. Nous
avons par exemple, un serveur web avec une adresse IP statique : 192.168.10.80.
Cette règle fera en sorte de rediriger le trafic sur le port 80 avec le protocole TCP d’Hyper-V
à la machine virtuelle qui est connectée sur le commutateur virtuel de type NAT qui a pour adresse IP
192.168.10.80.
Les extensions
Ceci est valable pour tous les types de commutateurs virtuels (privé, interne, externe).
En cliquant sur le symbole + à gauche du nom d’un commutateur virtuel, il apparaît un sous-menu au
nom d’Extension.
Il est possible d’ajouter des extensions aux commutateurs virtuels sur Hyper-V afin de l’améliorer et lui
permettre d’avoir des fonctionnalités avancées d’un vrai commutateur physique tel que la capture du
trafic réseau ou encore le filtrage des paquets.
- Plateforme de filtrage Microsoft Windows (Windows Filtering Platform WFP): permet le filtrage,
l’inspection et la surveillance des paquets réseau.
- Windows Azure VFP Switch Extension : Windows Server 2016 / Hyper-V 2016 est connu pour le
SDN (Software Defined Network) ; cette extension permet l’agilité, la flexibilité hybride en
appliquant une politique réseau dans le commutateur virtuel d’Hyper-V à l’aide de la passerelle
VFP (Virtual Filtering Platform), ce qui permet de gérer le réseau via un contrôleur de manière
centralisée.
- Capture NDIS Microsoft : permet de faire des captures du trafic réseau grâce à l’activation du
pilote de capture NDIS (Network Driver Interface specification).
Dans cette section, il est possible de définir une plage d’adresse MAC, ces adresses MAC sont distribuées
de manière automatique aux cartes réseau des machines virtuelles.
Il est possible d’identifier les commutateurs virtuels créés au niveau des clés de registre de Windows
Server avec le chemin suivant :
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\VMSMP\parameters\SwitchList.
Il est possible de migrer une machine virtuelle sous 2012 R2 en version 5 sur un Hyperviseur Hyper-V
sous Windows Server 2016, par contre la version de la machine virtuelle sera toujours à 5.0. Il faudra
donc effectuer la montée de version manuellement avec la commande suivante.
En revanche, une fois passé à la version 8, il n’est plus possible de revenir en arrière.
16
LP ISVD Virtualisation des systèmes 2017-2018
Avec l’arrivée d’Hyper-V 2012 R2, nous avons eu comme nouveauté deux types de génération de
machine virtuelle, génération 1 et génération 2.
La génération de machine virtuelle est un critère qui va déterminer le type de machine virtuelle et
surtout le matériel utilisé.
Machine virtuelle de génération 1
Cette génération de machine virtuelle propose le même type et matériel que les précédentes versions
d’Hyper-V.
Cette génération de machine virtuelle apporte plusieurs nouveautés aux machines virtuelles :
- Démarrage à partir d’un disque dur virtuel avec un contrôleur SCSI
- UEFI
- Secure boot
- Démarrage PXE
- Démarrage à partir d’un DVD virtuel en SCSI
- Machine virtuelle allégée : pas de port COM ni de disquette
Il est intéressant de voir que les machines virtuelles de génération 2 sont plus allégées et offrent
plusieurs avantages par rapport aux machines virtuelles de génération 1 :
- Démarrage plus rapide
- Déploiement plus rapide
- Les pilotes de la machine virtuelle sont synthétiques
Nous allons voir les différentes méthodes de création des machines virtuelles :
- En interface graphique
- En PowerShell
Afin de créer une machine virtuelle en interface graphique, il suffit de suivre les étapes suivantes grâce à
l’aide de l’assistant Hyper-V :
- Nom de la machine
- Emplacement des fichiers de la machine virtuelle
- Génération : 1 ou 2
- Quantité de mémoire RAM
- Connexion réseau (commutateur virtuel)
- Création d’un disque dur virtuel et choix de son emplacement
- Choix d’installation (système d’exploitation)
- Vérification des actions et validation
Ces opérations peuvent être réalisées sur le serveur Hyper-V VH01 et VH02.
Un assistant s’ouvre afin de vous guider dans la création de machines virtuelles sur l’hôte Hyper-V.
Cliquez sur Suivant.
Attention, comme le dit l’assistant, une fois la machine virtuelle créée, il est impossible de modifier sa
génération.
Configuration réseau : choisissez le commutateur sur lequel la machine virtuelle sera connectée.
17
LP ISVD Virtualisation des systèmes 2017-2018
La prochaine étape consiste à nommer le disque dur virtuel (VHDx) de la machine virtuelle, à spécifier sa
taille, et à choisir son emplacement.
Vient ensuite l’option d’installation : soit vous choisissez d’installer un système d’exploitation
ultérieurement soit directement. Il faudra alors sélectionner le deuxième bouton et indiquer le chemin de
l’image ISO.
Il est possible de sélectionner le troisième bouton qui permettra de faire une installation par le réseau
directement (votre machine virtuelle devra être connectée au bon commutateur virtuel pour qu’elle
puisse recevoir les bons paramètres TCP/IP afin de contacter le serveur PXE).
Il est nécessaire de bien vérifier les paramètres choisis avant de lancer la création de machines
virtuelles. Il est possible de revenir en arrière avec le bouton Précédent et de corriger ou modifier
certains paramètres si vous le souhaitez.
Le script suivant permet de créer une machine virtuelle (VM02) de manière rapide :
$VMname ="VM02"
$RAM = 512MB
$vSW = "CommutateurNAT"
Une fois les machines virtuelles créées, il est important de voir les opérations quotidiennes que les
administrateurs sont amenés à faire tous les jours, cela va du renommage jusqu’à la suppression de
machine virtuelle en passant par le déplacement de ces dernières.
Sur une machine virtuelle, il est possible de faire plusieurs opérations d’administration. Un clic droit sur
une machine virtuelle permet de voir la liste des opérations possibles.
18
LP ISVD Virtualisation des systèmes 2017-2018
Get-Module Hyper-V
Il est possible d’avoir toutes les commandes possibles pour gérer et administrer Hyper-V et les machines
virtuelles :
Une des nouveautés qui sera appréciée dans Hyper-V est la notion d’administration des machines
virtuelles avec des groupes, ceci va permettre de faciliter l’administration des machines virtuelles au
quotidien.
Ce groupe va permettre l’organisation des machines virtuelles telles que des objets afin d’avoir une
infrastructure virtuelle structurée et surtout simple à administrer et à dépanner en cas de besoin.
Le groupe VM collections : c’est un groupe logique qui va regrouper des machines virtuelles qui sont
présentes au sein de l’hyperviseur Hyper-V, ceci permettra de faire des tâches d’administration sur ce
dernier, et donc faciliter les tâches au quotidien et de gagner du temps.
Le groupe Management collections : c’est un groupe logique aussi qui va regrouper le ou les groupes
VM collections pour une administration plus simplifiée.
Lors de la création d’un groupe en Powershell, afin de différencier les deux groupes, il existe un
paramètre (-GroupType) avec deux valeurs possibles :
- VMCollectionType : pour un groupe de VM collections.
- ManagementCollectionType : pour les groupes de Management collections.
Une fois le groupe GRMGT créé, il est possible de vérifier sa création avec la commande suivante :
Get-VMGroup
Ensuite, il suffit de créer les variables pour les machines virtuelles et le groupe qu’on vient de créer.
Les machines virtuelles VM01 et VM02 ont été choisies pour être placées dans le groupe GRMGT.
Pour le groupe :
$GRP = Get-VMGroup -Name GRMGT
Une fois les variables créées, il faut ajouter les machines virtuelles VM01 et VM02 au groupe :
Add-VMGroupMember -VMGroup $GRP -VM $VM01
Add-VMGroupMember -VMGroup $GRP -VM $VM02
19
LP ISVD Virtualisation des systèmes 2017-2018
Consultez le résultat avec la commande suivante : Get-VMgroup. On s’aperçoit que les deux machines
virtuelles VM01 et VM02 sont membres du groupe GRMGT au niveau du VMGroupMembers.
À ce stade, il est possible de faire des opérations sur le groupe GRMGT directement. Ceci va toucher les
deux machines virtuelles VM01 et VM02, les autres machines virtuelles sont isolées de manière logique.
Ajoutez la machine virtuelle VM03 au groupe GRMGT :
Add-VMGroupMember -VMGroup $GRP -VM $VM03
Il est possible également de créer un deuxième groupe de collections et d’y mettre la machine virtuelle
VM04.
Vérifiez, on aperçoit le nouveau groupe GRMGT2 avec la machine virtuelle VM04 qui fait partie de ce
Dernier.
Il est possible de vérifier également au niveau des machines virtuelles avec la commande suivante :
Get-VM | ft Name, state, groups
Créez une variable qui va récupérer le nom du groupe et affectez les deux groupes VM collections au
groupe de management de collection GM :
Bien sûr, il faut que les groupes GRMGT et GRMGT2 existent et soient surtout placés en variables afin de
pouvoir les ajouter comme membres au groupe de management de collection GM.
Vérifiez : avec la commande PowerShell Get-VMGroup, on constate la présence du groupe GM, avec
comme membre le groupe VM collections GRMGT et GRMGT2.
Hyper-V offre la possibilité d’exporter les machines virtuelles afin de les importer plus tard dans un autre
hyperviseur ou alors faire une sauvegarde (moyen de sauvegarde manuel certes, mais il peut s’avérer
utile parfois).
- Migration d’un Hyper-V sous 2012 R2 vers un Hyper-V 2016 : il est possible d’exporter la
machine virtuelle et de l’importer dans le nouvel Hyper-V 2016. Il faudra par contre faire la
montée de version de la machine virtuelle manuellement.
- Migration de serveur classique autonome : il est possible d’exporter les machines virtuelles et les
conserver dans un espace de stockage. Une fois le serveur Hyper-V migré, vous pourrez par la
suite importer les machines virtuelles.
20
LP ISVD Virtualisation des systèmes 2017-2018
Lorsqu’une exportation est réalisée, le système exporte tous les fichiers de la machine virtuelle, à savoir,
les fichiers de configuration, le ou les disques virtuels, les snapshots si la machine virtuelle en dispose.
Exporter une machine virtuelle en interface graphique
Pour exporter une machine virtuelle, ouvrez le Gestionnaire Hyper-V, et cliquez droit sur une machine
virtuelle. Ensuite, cliquez sur Exporter.
Une fois terminé, l’ouverture du dossier E:\Export permet de vérifier si la machine virtuelle a été bien
exportée.
On peut constater ici que la machine virtuelle a été bien exportée, on retrouve comme mentionné plus
haut les fichiers suivants :
- Les snapshots
- Le disque dur virtuel de la machine virtuelle (.VHDx)
- Les fichiers de configuration
Une fois la machine virtuelle exportée, il faut l’importer, par exemple dans un autre hyperviseur (ici le
VH02).
Commencez par copier le dossier de la machine virtuelle exportée VM01 vers le serveur VH02.
Vous pouvez également le mettre à disposition dans un partage réseau, dans notre cas, nous avons
placé le dossier dans C:\Temp au niveau de l’hyperviseur VH02.
Hyper-V reconnaît que la machine virtuelle dans le dossier est bien la VM01 et indique également sa date
de création.
Vient ensuite le choix de l’emplacement des fichiers de la machine virtuelle, il suffit de spécifier le choix
souhaité en cochant la case Stocker l’ordinateur virtuel dans un autre emplacement.
Si cette case n’est pas cochée, les fichiers de la machine virtuelle seront stockés en fonction de la
configuration de stockage d’Hyper-V.
21
LP ISVD Virtualisation des systèmes 2017-2018
Connexion au commutateur virtuel de la machine, dans notre cas VH02 n’a pas encore de commutateur
défini, donc la machine virtuelle ne sera pas connectée au réseau, il est possible bien entendu de choisir
le commutateur virtuel que vous souhaitez à condition qu’il soit créé en amont sur votre serveur Hyper-
V.
Vérifiez les actions et paramètres choisis pour l’importation. Cliquez ensuite sur Terminer afin de
commencer l’importation de la machine virtuelle.
À ce stade, la machine virtuelle est importée. Il est possible de la démarrer en faisant un clic droit
Démarrer.
Une machine virtuelle dispose de plusieurs paramètres, ces paramètres sont liés bien entendu à
l’hyperviseur sur lequel elle est hébergée.
Paramètres matériels
Afin de se rendre dans les paramètres d’une machine virtuelle, faites un clic droit sur celle-ci et cliquez
sur Paramètres.
Certains paramètres ne peuvent être configurés que si la machine virtuelle est hors tension (éteinte).
Cependant, il y a des paramètres modifiables à chaud, c’est-à-dire durant l’exécution de la machine
virtuelle.
Ajout de matériel
Comme son nom l’indique, cette section permet d’ajouter des éléments matériels à la machine virtuelle
tels que :
Microprogramme
Les machines virtuelles de génération 2 ont la possibilité de démarrer directement via PXE,
contrairement aux machines virtuelles de génération 1.
Sécurité
Cette section permet de configurer le démarrage sécurisé (Secure Boot) de la machine virtuelle, avec
l’activation ou non de la TPM pour plus de sécurité.
Les machines virtuelles en UEFI vont utiliser une clé publique qui va permettre de gérer le Secure Boot
(démarrage sécurisé).
Ce mode est valable pour les machines virtuelles de génération 2 Windows et Linux.
Au niveau des machines virtuelles Linux, l’exécution de la commande suivante permet d’activer le Secure
Boot :
22
LP ISVD Virtualisation des systèmes 2017-2018
Mémoire
Cette section permet le paramétrage de la mémoire vive des machines virtuelles.
Une machine virtuelle peut avoir de la mémoire statique, ou alors de la mémoire dynamique, remarquez
que l’activation de la mémoire dynamique ne peut pas se faire à chaud, la machine virtuelle doit être
éteinte.
Si la mémoire de la machine virtuelle (Génération 1 ou 2) est configurée de manière statique, il est
possible avec Hyper-V 2016 d’ajouter ou d’ajuster cette quantité de RAM à chaud (durant l’exécution de
la machine virtuelle).
La mémoire dynamique
La mémoire dynamique est un concept qui permet d’allouer de la mémoire vive à une machine virtuelle
de manière dynamique en fonction de ses besoins. Cette allocation de mémoire dynamique ne dépassera
pas la taille de mémoire maximale fixée dans la configuration.
Ceci permet à l’hyperviseur de mieux gérer sa mémoire et d’attribuer aux machines virtuelles de la
mémoire en fonction des besoins, et donc de gagner en performances.
Dans notre cas, nous disposons d’un serveur Hyper-V VH02 avec 16 Go de RAM, avec une machine
virtuelle configurée avec la mémoire dynamique.
Cette machine virtuelle dispose de 2 Go de RAM minimale et 6 Go de RAM maximale (ces paramètres
sont à configurer au niveau de la machine virtuelle en question).
À cet instant T1, la machine virtuelle n’a pas besoin de mémoire supplémentaire.
Au bout d’un moment, la machine virtuelle est plus sollicitée par les utilisateurs, et donc celle-ci a besoin
de plus de mémoire afin de fonctionner de manière optimale. C’est là qu’entre en jeu le pilote DMVSC qui
va être en interaction avec l’hyperviseur pour l’allocation supplémentaire de mémoire à la machine
virtuelle.
Cette allocation supplémentaire de mémoire est faite de manière dynamique (d’où le nom de mémoire
dynamique), c’est-à-dire que l’hyperviseur va fournir la quantité de mémoire dont la machine virtuelle a
besoin afin de répondre au besoin des utilisateurs en termes de performances.
L’ajustement de la mémoire est fait à chaud, ce qui ne provoquera pas d’interruption de service.
Dans notre cas, la machine virtuelle a eu besoin de 2 Go de RAM supplémentaires afin de fonctionner
dans les conditions idéales.
Le point fort de mécanisme arrive au moment où la machine virtuelle est moins sollicitée, l’hyperviseur
va lui retirer la mémoire qu’il lui a allouée auparavant (les deux Go supplémentaires) afin d’optimiser son
espace mémoire et libérer cette mémoire pour d’autres machines virtuelles qui pourraient en avoir
besoin.
Une technique a été mise au point pour faire cela, le ballooning, cette technique consiste à faire croire à
la machine virtuelle que la mémoire qu’elle possédait avant n’est plus disponible, ce qui provoque
l’abandon de cette partie de la mémoire.
23
LP ISVD Virtualisation des systèmes 2017-2018
Il est très important de bien configurer la mémoire de vos machines virtuelles, pour cela, il est
indispensable de connaître leur quantité de mémoire et leur charge de travail pour faire une
configuration la plus optimisée possible ce qui évitera une perte de performance.
Processeur
Cette section permet de configurer les processeurs virtuels, il est possible d’ajouter des processeurs
supplémentaires à la machine virtuelle pour le gain de performance. Bien entendu, l’ajout des vCPU est
en fonction du processeur physique de l’hôte de virtualisation.
Il est possible également de contrôler les ressources CPU de la machine virtuelle afin de répartir ces
ressources entre les différentes machines virtuelles qui sont hébergées sur l’hôte de virtualisation.
Il est possible de cliquer sur le petit + à côté de la section Processeur afin d’afficher d’autres
paramètres supplémentaires qui sont la compatibilité et l’architecture NUMA.
Le paramètre Compatibilité du processeur permet une meilleure gestion de la compatibilité des
machines virtuelles lors d’une migration entre deux hyperviseurs qui n’ont pas la même version de
processeur.
NUMA est une architecture qui permet d’avoir des accès à la mémoire en créant des partitions (nœuds
NUMA) au niveau de la mémoire physique afin que chaque cœur CPU puisse disposer de sa partie
mémoire.
Lors de la création de nœuds NUMA, il y a ce qu’on appelle la mémoire locale qui est du point de vue du
processeur une mémoire locale car ces deux éléments sont dans le même nœud.
En revanche, depuis ce même processeur, une mémoire qui se trouve dans un autre noeud est appelée
mémoire distante.
L’accès le plus rapide à la mémoire est la mémoire locale, en revanche, les processeurs peuvent
également accéder à la mémoire qui se trouve dans un autre nœud NUMA, ceci baisse les performances
de la machine virtuelle. Il est donc judicieux de configurer une machine virtuelle de manière qu’elle
puisse utiliser les ressources mémoires d’un seul et unique nœud NUMA.
Fonctionnement NUMA avec les machines virtuelles Hyper-V avec le fractionnement NUMA
Hyper-V alloue la mémoire à une machine virtuelle au démarrage à partir d’un noeud NUMA physique, s’il
n’y a pas assez de mémoire sur le noeud NUMA, Hyper-V va allouer de la mémoire à la machine virtuelle
depuis un autre nœud NUMA physique. Le fractionnement NUMA est activé par défaut sur Hyper-V 2016.
La configuration de NUMA faite au niveau de l’hyperviseur (dans les paramètres d’Hyper-V) affecte toutes
les machines virtuelles qui sont lancées dans ce dernier. Cette configuration va faire de l’optimisation
mémoire entre les nœuds NUMA physiques et virtuels.
Il est possible également de configurer NUMA sur chaque machine virtuelle, de spécifier le nombre de
maximal de processeurs ainsi que la quantité maximale de mémoire pour chaque nœud NUMA.
Attention à la configuration NUMA qui peut être différente d’un hôte à l’autre lors d’une migration de
machine virtuelle.
Sur une machine virtuelle de génération 1, le contrôleur IDE est présent et peut être configuré afin
d’ajouter un disque dur virtuel (VHD / VHDx) ou encore un lecteur DVD afin de permettre à la machine
virtuelle le boot sur un ISO.
Il est impossible pour une machine virtuelle de génération 1 d’avoir un disque dur virtuel avec un
contrôleur SCSI pour le démarrage du système d’exploitation. Il est obligatoire d’avoir un disque dur
virtuel de boot sous un contrôleur IDE, en revanche, il est possible d’ajouter des disques durs virtuels
sous un contrôleur SCSI pour les données.
Contrôleur iSCSI
24
LP ISVD Virtualisation des systèmes 2017-2018
Avec les machines virtuelles de génération 2, il est possible désormais d’avoir un disque dur de boot sous
un contrôleur SCSI. Bien sûr il est possible d’ajouter plusieurs disques durs virtuels supplémentaires en
SCSI sur la machine virtuelle.
Rappel : ces contrôleurs IDE ne sont plus disponibles pour les machines virtuelles de génération 2.
Carte réseau
Dans Hyper-V 2016, il est possible d’ajouter une carte réseau à chaud, il n’est pas nécessaire d’éteindre
la machine virtuelle pour lui ajouter une carte réseau.
Plusieurs paramètres sont disponibles pour les cartes réseau au niveau des machines virtuelles.
Il est possible de spécifier et de connecter une carte réseau à un commutateur virtuel, de plus, Hyper-V
permet également la prise en compte des VLANs avec le tag de l’ID du VLAN.
Au niveau de l’optimisation, on peut activer la gestion de bande passante afin de limiter et de contrôler la
bande passante en fonction des machines virtuelles dans le but de faire le maximum de gain et de ne pas
saturer le réseau.
En cliquant sur le + à gauche de la section Carte réseau, plusieurs paramétrages avancés sont
disponibles au niveau de la carte réseau :
- Accélération matérielle
- Fonctionnalités avancées
Activer la file d’attente d’ordinateurs virtuels : cette partie permet l’activation du VMQ. Le VMQ est
une technologie similaire au RSS mais celle-ci est faite pour les machines virtuelles et la virtualisation.
Activer le déchargement de tâche IPsec : afin de ne pas altérer les performances des machines
virtuelles avec des algorithmes de chiffrement lourds qui demandent beaucoup de ressources, Hyper-V
permet sur ses commutateurs virtuels l’utilisation du déchargement de tâche IPsec, qui améliore
grandement les performances de la machine virtuelle.
Le VMQ permet l’optimisation des flux réseau au niveau des cartes réseau virtuelles des machines
virtuelles. VMQ associe une interface virtuelle à une file d’attente. Cette file d’attente est également liée
à un processeur logique, ce qui permet une grande amélioration des performances réseau.
Le VMQ est activé par défaut sur les cartes réseau 10 Gbit. Par contre, sur les cartes réseau 1 Gbit, il
n’est pas activé par défaut.
L’activation du VMQ pose souvent des soucis de performance réseau, tandis que normalement le VMQ est
censé améliorer ces performances. Le souci vient de certains drivers et du support de la technologie au
niveau de la carte réseau.
Afin que VMQ soit activé de manière automatique pour les cartes réseaux 10 Gbit, il faut que celle-ci soit
connectée à un commutateur virtuel.
Activer SRIOV : activation de SRIOV (Single-Root IOV), cette technologie permet de tirer parti des
meilleures performances des cartes réseau au niveau des machines virtuelles. Cela permet aux machines
virtuelles d’accéder aux ressources de la carte réseau physique directement, la machine virtuelle va
penser que la carte physique lui est attribuée directement, et par conséquent, les performances sont
meilleures.
Paramétrage de l’adresse Mac : possibilité de laisser l’adressage MAC en dynamique ou alors la fixer
en statique.
Activation de l’usurpation d’adresse MAC : cette option permet de protéger la machine virtuelle
contre les usurpations d’adresse MAC au niveau des trames sources sortantes.
Protection DHCP : cette option permet de protéger la machine virtuelle des serveurs DHCP qui ne sont
pas autorisés dans le réseau à distribuer des paramètres TCP/IP. Cela évite d’avoir un adressage
distribué par un DHCP frauduleux.
Protection du routeur : protège l’environnement réseau des machines virtuelles qui se font passer
pour des routeurs.
25
LP ISVD Virtualisation des systèmes 2017-2018
Réseau protégé : cette option permet de migrer la machine virtuelle vers un autre noeud en cas de
soucis réseaux, cela permet d’avoir une continuité de service et une tolérance aux pannes.
Mise en miroir de ports : cette option est intéressante pour les dépannages réseau, elle permet de
faire une copie de tout le trafic réseau (entrant et sortant) et le copie vers une autre destination afin
qu’elle puisse être analysée.
Association de cartes réseau : cette option permet d’agréger les cartes réseau virtuelles des machines
virtuelles, ce qui va permettre une haute disponibilité au niveau des cartes réseau.
Affectation de nom de périphérique : cette option permet la prise en charge de la propagation des
noms des cartes réseau sur les machines virtuelles.
Paramètres de gestion
Dans cette section, il est possible de modifier le nom de la machine virtuelle, et d’ajouter une
description.
Service d’intégration
Les services d’intégration sont envoyés directement via Windows Update sous Hyper-V 2016.
Points de contrôle
Cette section permet de configurer les points de contrôle, il est donc possible de choisir le type de point
de contrôle à appliquer au niveau de la machine virtuelle.
Par défaut, les points de contrôle sont activés sur les machines virtuelles, il est possible de les
désactiver.
Également, le type de point de contrôle par défaut est Points de contrôle de la production, il est
possible de choisir le type standard. C’est l’une des nouveautés d’Hyper-V 2016.
Il est également possible de choisir l’emplacement des points de contrôle.
Cette section permet de configurer les actions à réaliser de manière automatique sur la machine virtuelle
lors du démarrage d’Hyper-V.
Il est possible de choisir le démarrage automatique de la machine virtuelle, ou alors le démarrage
automatique avec un délai de démarrage (en secondes).
Cette section permet de configurer les actions à réaliser de manière automatique sur la machine virtuelle
lors de l’arrêt d’Hyper-V.
Plusieurs choix sont disponibles :
- Mettre en mémoire l’état de l’ordinateur virtuel (la machine virtuelle va garder son état à
un instant T).
- Éteindre l’ordinateur virtuel de manière brusque.
- Arrêter le système d’exploitation invité : cette opération envoie un signal d’extinction à la
machine virtuelle (les services d’intégration doivent être installés afin que le système puisse
envoyer le signal d’extinction au système d’exploitation invité de la machine virtuelle).
26
LP ISVD Virtualisation des systèmes 2017-2018
Depuis l’Hyperviseur VH01, il est possible de migrer une machine virtuelle vers l’hyperviseur VH02 à
chaud, c’est à dire que la migration se fera alors que la machine virtuelle est en exécution, donc sans
interruption de services.
La mémoire de la machine virtuelle est copiée via le réseau vers l’hôte de destination.
Bien entendu, lors d’une migration de machine virtuelle, l’hôte qui va recevoir la machine virtuelle a
besoin de ressources et d’une configuration matérielle semblable à l’hôte source, car l’hôte de destination
doit être en mesure d’accueillir la machine virtuelle, donc attention à bien vérifier la quantité de mémoire
vive et la configuration CPU et stockage de l’hôte de virtualisation distant lors d’une migration de
machine virtuelle.
Entrons dans le cœur de la migration entre deux Hyper-V (VH01 et VH02) dans un contexte où les deux
serveurs ne sont pas en cluster.
Lors de la migration de machine virtuelle de l’hôte VH01 vers VH02, c’est la mémoire vive de la machine
virtuelle qui est copiée. Celle-ci est compressée par défaut si le réseau de migration à une bande
passante de moins de 10 Gbit, ceci est dans le but d’améliorer la migration et surtout de ne pas saturer
le réseau.
Afin de pouvoir migrer une machine virtuelle d’un hôte de virtualisation vers un autre hôte de
virtualisation, il faut configurer la prise en charge de la migration dynamique au niveau de l’hyperviseur.
Il faut se rendre directement dans les paramètres d’Hyper-V et activer la migration des machines
virtuelles sur les deux hyperviseurs (VH01 et VH02).
Au niveau du réseau de migration, il est possible de laisser Hyper-V choisir le réseau de migration ou
alors lui fixer un réseau bien spécifique dédié.
Cliquez ensuite sur Appliquer.
Une fois la migration dynamique de machine virtuelle activée, il faut se rendre dans les fonctionnalités
avancées afin de comprendre ce qui se passe.
27
LP ISVD Virtualisation des systèmes 2017-2018
- Options de performances : ceci permet de fixer les options à choisir afin d’obtenir les
meilleures performances lors de la migration, plusieurs options sont à choisir en fonction de
l’infrastructure et de la configuration matérielle des hyperviseurs.
o Compression : choix par défaut dans Hyper-V, cette option va dans un premier temps
compresser la mémoire vive de la machine virtuelle avant de la copier sur le réseau vers
l’hyperviseur de destination.
o SMB : cette option permet la migration de machine virtuelle via une connexion SMB,
cette option permet également l’utilisation de SMB direct si les hyperviseurs disposent
de cartes réseau qui gèrent la fonctionnalité (RDMA), ce qui améliore grandement la
migration de machines virtuelles.
Dans notre cas, nous allons utiliser une authentification Kerberos étant donné que nos deux hyperviseurs
sont joints au domaine ainsi qu’une compression de mémoire lors de la migration.
Ces opérations doivent être effectuées sur les deux hyperviseurs c’est-à-dire VH01 et VH02.
Une fois la migration dynamique activée et configurée de manière similaire sur les deux hyperviseurs
(VH01 & VH02) il est possible de faire migrer une machine virtuelle hébergée sur VH01 vers VH02.
Il faut faire cette opération pour les deux objets ordinateurs (VH01 et VH02).
Pour la délégation, il est nécessaire de se rendre dans l’Active Directory et de sélectionner l’objet
Ordinateur de l’hyperviseur source, ici VH01, et d’aller dans ses propriétés.
Allez dans l’onglet Délégation. Il suffit ensuite de cliquer sur N’approuver cet ordinateur que pour la
délégation aux services spécifiés, et de choisir l’option Utiliser uniquement Kerberos.
Il faudra dans un premier temps ajouter le serveur Hyper-V de destination en cliquant sur Utilisateurs
ou ordinateurs.
28
LP ISVD Virtualisation des systèmes 2017-2018
Cliquez sur Appliquer et OK pour finir. Refaites ensuite la même opération mais sur l’objet ordinateur
VH02. Lors de la sélection de l’ordinateur, il faudra choisir VH01.lab.com.
Une fois terminé, nous allons pouvoir procéder à la migration dynamique d’une machine virtuelle.
Il y a plusieurs options pour le déplacement de machines virtuelles au sein d’Hyper-V 2016, nous allons
les voir l’une après l’autre.
Ouvrez la console Gestionnaire Hyper-V :
Cliquez droit sur la machine virtuelle VM01 et cliquez ensuite sur Déplacer.
Après avoir choisi cette option, l’assistant propose directement de choisir le répertoire du serveur de
destination qui accueillera le stockage de la machine virtuelle (fichiers de configuration et disque dur
virtuel).
Une fois le répertoire de destination sélectionné, cliquez sur Suivant pour poursuivre :
Vérifiez les options choisies pour le déplacement de la machine virtuelle à chaud. Cliquez sur Terminer
afin de commencer le déplacement.
Vérifions la présence de la machine virtuelle dans le dossier C:\VMs au sein de l’hyperviseur VH01. On
retrouve les dossiers qui correspondent à la machine virtuelle VM01 :
Maintenant que nous avons effectué le déplacement de la machine virtuelle avec la première option (qui
consiste à faire migrer tous les fichiers de la machine virtuelle vers une seule destination), nous allons
voir les deux autres options.
Pour cela, il suffit d’aller sur VH01.lab.com et d’effectuer un clic droit sur la machine virtuelle. Ensuite,
cliquez sur Déplacer.
L’assistant de déplacement de machine virtuelle va s’ouvrir, cliquez sur Suivant, ensuite choisissez la
première option Déplacer la machine virtuelle.
Entrez ensuite le serveur Hyper-V de destination qui sera cette fois-ci le serveur VH02.lab.com.
La première option a été traitée précédemment ; nous allons voir la deuxième option, qui consiste à faire
le déplacement de la machine virtuelle et ses fichiers avec la possibilité de choisir plusieurs
emplacements différents et d’être granulaire.
29
LP ISVD Virtualisation des systèmes 2017-2018
- La dernière option permet de déplacer les fichiers et la machine virtuelle de manière granulaire,
ce qui va nous permettre de choisir des dossiers différents pour l’emplacement des disques durs
virtuels et fichiers de configuration, etc.
Si l’option Déplacer les disques durs virtuels de l’ordinateur virtuel vers des emplacements
différents est choisie,
il suffit de sélectionner le disque dur virtuel de la machine virtuelle (ici nous n’avons qu’un seul disque
dur virtuel).
Choisissez ensuite le chemin où sera stocké le disque dur virtuel (sur l’hôte de virtualisation distant).
Cliquez sur Suivant afin d’avoir la vérification de vos actions. Cliquez ensuite sur Terminer pour
commencer le déplacement :
L’assistant va proposer le choix de stocker ces différents éléments à des emplacements différents sur
l’hôte de destination.
Choix de l’emplacement des fichiers de pagination intelligente (Smart Paging Files) : C:\vms\
Vérifiez les options choisies et cliquez sur Terminer pour commencer le déplacement :
Il est possible également de migrer le stockage des machines virtuelles, cela concerne les fichiers de
configuration, et les disques durs virtuels de la machine virtuelle.
Le déplacement du stockage des machines virtuelles peut être utile en cas de manque d’espace sur un
disque, cela permettra de réaliser le déplacement des disques virtuels et fichier de configuration des
machines virtuelles vers un disque dur qui content plus d’espace disque.
Nous l’avons vu précédemment, il est possible de déplacer le stockage de la machine virtuelle vers un
autre hyperviseur, ici nous allons voir le déplacement du stockage de manière locale, dans le cas où le
serveur disposerait de plusieurs disques.
Il est possible de faire le déplacement à chaud comme à froid, nous allons réaliser ici les opérations à
chaud sur le même serveur VH01.lab.com, le stockage de la machine virtuelle VM01 se trouve dans
C:\VMs, et il sera déplacé vers E:\VMs.
Pour réaliser ce déplacement, il suffit d’aller dans le Gestionnaire Hyper-V; faites un clic droit sur la
machine virtuelle en question (VM01) et cliquez sur Déplacer :
Choisissez la première option, qui consiste à déplacer tous les fichiers de la machine virtuelle ainsi que
ses disques durs virtuels vers le même et unique emplacement :
Vérifiez et cliquez sur terminer afin de commencer le déplacement des fichiers vers E:\VMs.
30
LP ISVD Virtualisation des systèmes 2017-2018
Attention, la machine virtuelle fonctionne toujours sur le même hôte Hyper-V, seuls ses fichiers de
configuration ainsi que son disque dur virtuel sont déplacés vers le disque E:
Vérification
Les fichiers de configuration ainsi que le disque dur virtuel de la machine virtuelle VM01 ont été
transférés de C:\VMs vers E:\VMs :
Dans cette section, nous allons voir le déplacement des fichiers de machines virtuelles à des
emplacements différents, ce qui permet de laisser le choix aux administrateurs d’organiser le stockage
de leurs machines virtuelles en fonction de leur nomenclature de stockage.
Choisissez l’option Déplacer les données de l’ordinateur virtuel vers d’autres emplacements, qui
permet donc d’être granulaire au niveau des choix de destination :
Vérifiez, cliquez ensuite sur Terminer afin de commencer le déplacement de ces fichiers vers les
emplacements sélectionnés :
Dans cette section, nous allons voir le déplacement du disque dur virtuel d’une machine virtuelle
uniquement.
Ouvrez le Gestionnaire Hyper-V, ensuite faites un clic droit sur une machine virtuelle (ici VM01), et
cliquez sur Déplacer.
Choisissez l’option Déplacer uniquement les disques durs virtuels de l’ordinateur virtuel.
Vérifiez et cliquez sur Terminer pour lancer le déplacement du disque dur virtuel de la machine virtuelle.
La virtualisation subit une forte croissance au niveau des datacenters et systèmes d’informations. C’est
ainsi qu’on a vu naître de nouveaux concepts révolutionnaires tel le SDDC (Software Defined DataCenter)
de Vmware par exemple afin de gérer les datacenters de manière logicielle, ce qui permettra d’être plus
productif, de gagner en rapidité d’administration, d’exploitation et surtout automatisation des
déploiements. C’est ce qu’on appelle les infrastructures hyperconvergées dans lesquelles on peut
retrouver plusieurs couches (système, calcul, stockage et réseau).
31
LP ISVD Virtualisation des systèmes 2017-2018
Avec l’arrivée des infrastructures hyperconvergées, Microsoft et Hyper-V rentrent dans une nouvelle ère
afin de ne pas rater le train et rester compétitifs sur le marché.
Avec Windows Server 2016 Microsoft fait un grand pas vers ces infrastructures hyperconvergées au
niveau stockage SDS (Software Defined Storage) avec les Storage Spaces Direct ainsi que le SDN
(Software Defined Network) qui va permettre de gérer et de virtualiser le réseau de manière logicielle.
Microsoft l’a compris et ne cesse d’améliorer l’interaction du stockage avec son hyperviseur Hyper-V.
Désormais, depuis la version 2012, Hyper-V est capable de prendre en charge des stockages réseau
(mode fichier) de type application avec SMB3, ce qui permet de laisser plusieurs choix au niveau du
stockage et offre une infrastructure de virtualisation optimale et robuste qui pourrait concurrencer la
suite vSphere de chez Vmware.
Le Software Defined Storage (SDS) est une technologie qui permet de gérer le stockage de manière
logicielle et mutualisée.
Une solution SDS va donc virtualiser les ressources de stockage, le tout piloté par une couche de
contrôle qui va contrôler, distribuer et allouer les ressources. Une autre couche s’occupera de la partie
stockage c’est-à-dire la gestion des disques, du Raid, ainsi que la configuration du type de stockage
(fixe, dynamique, etc.).
Concrètement comment cela fonctionne-t-il sous Windows Server 2016 avec les Storage Spaces Direct ?
À partir des disques durs physiques locaux de plusieurs serveurs sous Windows Server 2016, il est
possible de créer un pool de stockage qui agrège les disques physiques en une seule unité de stockage.
À partir de ce pool de stockage, il est possible de créer plusieurs volumes avec plusieurs mécanismes tels
que le RAID 0, RAID1 ou RAID 5.
Une fois créé, on peut créer des disques virtuels dans ces volumes et les présenter à nos hyperviseurs
Hyper-V comme stockage en mode bloc en iSCSI par exemple ou en mode fichier si on l’on crée un
partage SMB de type application dans ce disque dur virtuel.
Depuis Windows Server 2012, Microsoft fait son entrée dans la convergence au niveau stockage, ce qui
permet d’avoir une architecture compacte et optimale taillée pour des besoins de virtualisation.
Dans Windows Server 2016, Microsoft a su prendre le train du SDS afin de compléter son offre et attirer
d’autres clients potentiels.
Cela passe par la virtualisation du stockage ce qui va faciliter la gestion et surtout minimiser les coûts
d’achat.
Présentation du concept
Dans ce concept, Microsoft facilite la gestion et surtout le déploiement des infrastructures de stockage à
moindre coût.
Pour faciliter la gestion du stockage, Microsoft introduit deux nouvelles notions dans le stockage au sein
de Windows Server qui sont :
- Storage Pool
- Storage Space
Le Storage Pool
C’est une technique qui permet d’agréger plusieurs disques de stockage physique de technologies
diverses (SATA, SAS, etc.) en un seul pool de stockage, c’est-à-dire une seule unité de stockage.
À partir de quatre disques physiques de 10 Go chacun, il est possible de les agréger en une seule unité
de stockage de 40 Go, ce qu’on appelle le Storage Pool.
32
LP ISVD Virtualisation des systèmes 2017-2018
Ce sont des disques virtuels qui sont créés à partir du Storage Pool directement, ce sont donc des
disques virtuels qui sont basés directement sur l’agrégation de disque effectuée.
En créant des Storage Spaces, le système propose plusieurs choix de configuration au niveau de la
disponibilité et protection des données :
Il est également possible de faire du Thin Provisioning. C’est une technologie qui permet d’optimiser
l’espace de stockage, c’est-à-dire que le disque ne prendra pas l’espace de stockage alloué au départ
mais grossira au fur et à mesure et en fonction de l’utilisation, il se remplira.
Une fois ces connaissances acquises, nous allons pouvoir mettre en place notre solution de stockage avec
le Storage Spaces.
Une fois installé et configuré, vous devez avoir la configuration similaire au niveau nom et adressage IP
Au niveau du disque dur physique, vous devez avoir trois disques durs non initialisés et non alloués.
Il est possible également de lister ces disques en PowerShell avec la commande suivante :
Get-PhysicalDisk
On peut voir ici la présence du disque C:\ ainsi que des trois disques supplémentaires de 20 Go chacun.
Une fois ces prérequis réunis, il est possible de commencer la mise en œuvre des Storage Spaces.
L’assistant de création de Storage Pool s’ouvre, cliquez sur Suivant pour commencer :
Saisissez le nom du Storage Pool POOL1, remarquez que nous allons nous baser sur le sous-système
De notre serveur de stockage vStore01, et cliquez sur Suivant.
Sélectionnez les trois disques durs physiques. Le système indique qu’après agrégation, la capacité totale
sera de 60 (20 + 20 + 20). Cliquez sur Suivant pour poursuivre :
La création du Storage Pool est désormais terminée, vous pouvez fermer l’assistant :
Afin de vérifier que la création du Storage Pool POOL1 s’est bien déroulée, il faut se rendre dans le
Gestionnaire de serveur Service de fichier et de stockage Pool de stockage. On peut constater la
présente du Storage Pool POOL1 :
Il est possible également de créer le Storage Pool en PowerShell avec le script suivant :
33
LP ISVD Virtualisation des systèmes 2017-2018
La valeur de la variable $systemfriendlyname dépend du nom que vous avez donné au serveur, ici c’est
vStore01 donc la valeur est : Windows Storage on vStore01.
La création du Storage Pool est désormais terminée, la prochaine étape consiste à créer les Storage
Spaces à partir de ce Storage Pool.
Pour créer un Storage Space, ouvrez le Gestionnaire de serveur Service de fichier et de stockage
Pool de stockage :
Cliquez droit sur le Storage Pool créé auparavant et créez un nouveau disque virtuel Storage Space.
Le pool de stockage va être créé à partir du pool de stockage "Pool1" créé auparavant.
L’assistant de création de disques virtuels s’ouvre, cliquez sur Suivant afin de poursuivre :
Remarquez que l’assistant propose, si le système en dispose, d’utiliser des disques SSD pour activer le
tiering afin d’améliorer les performances.
Utilisez tout l’espace disponible pour ce Storage Space et cliquez sur Suivant :
Il est possible de créer les Storage Spaces en PowerShell, utilisez le script suivant (il est à adapter en
fonction de votre configuration) :
$friendly = "vDISK"
$storagepool = "POOL1"
#Création du disque virtuel qui sera basé sur le Storage Pool "POOL1"
New-VirtualDisk -FriendlyName $friendly -StoragePoolFriendlyName
$storagepool -ProvisioningType Thin -ResiliencySettingName parity
-Size 56GB
Retournez sur le Gestionnaire de serveur et remarquez le type de ce disque virtuel vDISK qui vient d’être
créé.
Allez dans Disques, le disque virtuel vDISK est présent avec comme type Espaces de stockage.
34
LP ISVD Virtualisation des systèmes 2017-2018
À ce stade, le Storage Space (disque virtuel) basé sur le Storage Pool POOL1 est créé, il faut ensuite
réaliser les étapes suivantes :
Pour mettre en ligne le disque, ouvrez la console Gestion des disques du serveur :
Remarquez la présence du disque Disque4, cliquez droit sur le disque et mettez-le en ligne en cliquant
sur En ligne.
Une fois le volume créé, il est possible de vérifier la présence du volume (DISK) E: dans l’explorateur
Windows :
Il est également possible de vérifier la présence du nouveau volume dans le Gestionnaire de serveur
ainsi que dans la console Gestion des disques.
Dans le Gestionnaire de serveur, on constate la présence du volume avec le nom DISK et la lettre E :
Après avoir créé le Storage Pool ainsi que le Storage Space, il est possible désormais de créer les LUNs.
Ces LUNs seront ensuite attachées via le protocole iSCSI aux hyperviseurs Hyper-V
(VH01 et VH02).
Avant de commencer, il est nécessaire d’installer le service de rôle iSCSI comme ceci :
Il est possible de l’installer via l’interface graphique en ajoutant le même service de rôle.
À l’issue de l’installation, il est nécessaire de redémarrer le serveur.
À cet instant, nous pouvons commencer la création des vDISK iSCSI (LUN) avec la commande suivante :
Il est possible de vérifier la présence du disque virtuel ISCSI nommé LUN01 dans le répertoire E:\LUN :
Il est possible également de créer des vDIsk iSCSI via l’interface graphique.
Remarquez la présence de la LUN LUN01 créée auparavant en PowerShell. Pour en créer une deuxième,
cliquez sur Tâches Nouveau disque virtuel iSCSI :
35
LP ISVD Virtualisation des systèmes 2017-2018
Attention à bien choisir ici le volume E :, qui correspond ici à notre Storage Space.
Spécifiez ici la taille du disque. Remarquez ici que vous pouvez choisir trois types de disques :
- Taille fixe
- Taille dynamique
- Différenciation
Ce serveur ne dispose pas encore de cible iSCSI, l’assistant propose d’en créer une.
L’écran suivant permet de spécifier les serveurs Hyper-V (VH01 et VH02) qui auront le droit de se
connecter à cette cible iSCSI via leur initiateur iSCSI.
Cliquez sur Ajouter et ajoutez les deux serveurs VH01.lab.com et VH02.lab.com, comme ceci :
Vous pouvez activer le protocole CHAP pour l’authentification des serveurs si besoin est.
Cliquez sur Créer afin de lancer la création du disque virtuel iSCSI et de la cible associée.
Si votre serveur de stockage n’arrive pas à résoudre le nom de votre serveur, cela est dû à un souci de
résolution DNS. Vous pouvez soit configurer le tout avec votre serveur DNS soit utiliser des fichiers Host.
Il est possible de mettre directement l’adresse IP des serveurs initiateurs (Hyper-V).
Une fois la création terminée, il est possible de voir les deux LUN créées dans le Gestionnaire de serveur.
On peut voir les LUN 01 et 02 :
On peut les voir également avec la commande PowerShell suivante : Get-IscsiVirtualDisk
Il est temps de présenter les LUN aux serveurs Hyper-V afin qu’ils puissent y stocker leurs machines
virtuelles directement, ce qui leur permettra d’avoir un stockage dans une autre unité et non un stockage
local.
Bien entendu, ce stockage partagé offre la possibilité de mise en place d’architectures hautement
disponibles qui seront abordées plus tard dans cet ouvrage.
Au niveau du fonctionnement, le ou les serveurs vont se connecter à la cible iSCSI créée précédemment.
Cette cible iSCSI Target01 bien entendu doit contenir les initiateurs iSCSI qui vont s’y connecter, c’est-à-
dire nos serveurs Hyper-V.
Pour information, il est possible de se connecter à une cible iSCSI en interface graphique ou en
PowerShell. Nous allons voir les deux méthodes.
36
LP ISVD Virtualisation des systèmes 2017-2018
Il est possible de vérifier que le service est bien lancé comme ceci :
get-service -name msiscsi
Une fois l’IQN récupéré, il est temps de connecter l’hyperviseur à la cible iSCSI Target01 comme ceci :
Lancez le programme en cliquant sur Démarrer puis en tapant "Initiateur iSCI" dans la barre de
recherche :
On peut voir que le serveur est bien connecté à la cible iSCSI Target01.
À ce stade, le serveur Hyper-V VH02 est connecté à la cible iSCSI via le protocole iSCSI.
Au niveau fonctionnement, dans notre cas, la LUN est directement présentée au serveur Hyper-V comme
si ce dernier était directement connecté via un contrôleur SCSI sur le serveur.
Afin de vérifier, il suffit d’aller dans le gestionnaire de disque du serveur Hyper-V VH02 et constater qu’il
y a bien un disque présenté qui provient du serveur de stockage vStore01.
Pour y accéder, cliquez droit sur l’icône démarrer du serveur et allez dans Gestion de disque.
Vous devez avoir le même résultat, c’est-à-dire un nouveau disque dur en mode hors ligne :
Afin de bénéficier de cette LUN et de ce disque sur notre hyperviseur, il faudra réaliser les actions
suivantes :
- Le mettre en ligne
- Initialiser le disque
Pour mettre en ligne le disque, faites un clic droit sur le disque, ensuite cliquez sur Mettre en ligne.
Faites un clic droit sur le disque et cliquez ensuite sur Initialiser le disque :
37
LP ISVD Virtualisation des systèmes 2017-2018
Nous n’avons qu’un seul disque pour l’instant, choisissez le Disque 1 et cliquez sur OK :
Faites un clic droit sur le disque et cliquez sur Nouveau volume simple :
Ce volume sera la LUN présentée par notre serveur de stockage via le protocole iSCSI. On pourra y
stocker les fichiers des machines virtuelles et mettre en oeuvre par exemple une infrastructure Hyper-V
hautement disponible avec la fonctionnalité cluster.
L’assistant s’ouvre comme ceci puis cliquez sur Suivant afin de commencer la création du volume :
Une fois terminé, vous devez obtenir ceci : le disque 1 est bien formaté en NTFS et disponible afin
d’accueillir les machines virtuelles de notre hyperviseur.
Regardons de plus près dans l’explorateur Windows. On aperçoit bien le disque qui provient de notre LUN
créée au niveau de notre serveur de stockage et présentée via le protocole iSCSI :
Désormais, il est possible maintenant de créer de nouvelles machines virtuelles au sein de notre
hyperviseur Hyper-V et les stocker au sein de cette LUN. Ce qui permet d’offrir une architecture
convergée avec les Storage Spaces.
Il est possible de faire pointer le stockage des machines virtuelles et des disques virtuels des machines
virtuelles directement sur cette LUN par défaut dans les paramètres Hyper-V.
Windows Server 2016 suit le marché et les nouveautés, notamment en matière d’infrastructure
hyperconvergée.
Microsoft introduit les Storage Spaces Direct, une amélioration de la solution Storage Spaces apparue
avec la version Windows Server 2012.
Ceci permet d’avoir une autre vision par rapport aux architectures SAN/NAS souvent très coûteuses pour
les clients.
De plus, Microsoft introduit ces infrastructures hyperconvergées de manière très simple afin d’être le plus
rapidement opérationnel.
Présentation du concept
Les Storage Spaces Direct sont une technologie SDS (Software Defined Storage) qui permet de créer une
infrastructure virtualisée de stockage hautement disponible.
Cette solution va permettre aux entreprises d’avoir des architectures de stockage robustes, hautement
disponibles à moindre coût, directement introduites dans Windows Server 2016. De plus, on s’affranchit
des connaissances en termes de stockage SAN.
Cette technologie arrive avec une amélioration qui est l’agrégation des disques locaux de chaque serveur
dans le cluster afin de constituer un pool de stockage, le même principe est utilisé pour les Storage
38
LP ISVD Virtualisation des systèmes 2017-2018
Spaces classiques ; sauf qu’avec le Storage Space Direct il est possible d’agréger plusieurs disques
locaux de plusieurs serveurs qui sont dans un cluster en un pool de stockage.
Ceci est possible grâce à un bus SSB (Software Storage Bus) qui fera le lien entre tous les nœuds du
cluster.
La communication entre les serveurs pour l’ensemble du stockage se fera via le protocole de stockage
SMB3.
Une fois que les disques locaux de chaque serveur faisant partie du cluster sont agrégés en un pool de
stockage, il est possible par la suite de créer des disques virtuels. Ensuite ces disques virtuels pourront
être présentés au serveur de virtualisation Hyper-V comme espace de stockage des machines virtuelles.
Ou alors il est possible de créer un cluster SOFS et de faire un partage SMB à partir de ces volumes afin
de stocker des machines virtuelles.
Cette nouvelle technologie utilise également les dernières innovations matérielles telles que le RDMA et
les disques NVMe afin de gagner en performance.
Architecture hyperconvergée
Dans une infrastructure hyperconvergée nous avons la pile calcul (virtualisation) et la pile stockage
(Storage Space Direct) dans le même cluster, d’où la notion d’hyperconvergence. Cette architecture
hyperconvergée possède plusieurs éléments :
- Réseau de communication : la communication entre chaque serveur du cluster se fait via SMB, il
est nécessaire d’avoir des cartes réseaux qui supportent le RDMA afin d’avoir de bonnes
performances en production.
- Stockage matériel : chaque serveur peut avoir plusieurs technologies matérielles de stockage
(disques SATA, disque NVMe, disque SAS ou encore des disques SAS externes connectés via une
baie JBOD).
- Bus de stockage : appelé également SSB (Software Storage Bus) le bus de stockage est un bus
virtuel qui va communiquer avec tous les noeuds du cluster. Ce bus permet à chaque noeud de
voir tous les disques des autres noeuds qui composent le cluster. Le bus SSB dispose de deux
composants sur chaque noeud du cluster qui sont le ClusPort et le ClusBlft.
- Le composant ClusPort crée un HBA virtuel (Host Bus Adapter) qui va permettre à un noeud de
se connecter aux disques locaux des autres serveurs du cluster.
- Le composant ClusBlft s’occupe de la virtualisation des disques durs et s’assure que chaque
composant ClusPort de chaque noeud puisse se connecter.
- Storage Pool : c’est l’agrégation des disques locaux de chaque noeud dans le cluster en une
unité de stockage.
- Storage Spaces : ce sont les disques durs virtuels qui sont créés à partir du Storage Pool.
- ReFS (Resilient File System) : c’est le système de fichiers qui apporte énormément
d’améliorations au niveau du stockage. Les machines virtuelles Hyper-V seront stockées dans un
stockage qui aura pour système de fichiers ReFS. Il offre plusieurs avantages pour la
virtualisation, de l’optimisation pour les Storage Spaces ainsi qu’une meilleure gestion des
erreurs, et la correction automatique. Il permet également d’avoir de meilleures performances
au niveau des opérations avec les disques virtuels VHDx.
- Software Storage Bus Cache : le SSB implémente également un mécanisme de mise en cache
SBC (Storage Bus Cache).
39
LP ISVD Virtualisation des systèmes 2017-2018
- Software Storage Bus Bandwidth Management : SSB met en oeuvre un algorithme d’accès qui
va répartir la charge au niveau des périphériques à partir de n’importe quel noeud du cluster, ce
qui va éviter la surcharge, il est capable également de faire de la priorisation d’I/O
(Input/Output).
- Protocole de transport SMB : le SSB, comme cité plus haut, utilise le protocole SMB pour le
transport entre les nœuds du cluster. Lors de la communication, il y a une instance distincte SMB
sur chaque noeud, ce qui permet de la séparer des autres communications telles que CSVFS,
ceci offre une résilience supplémentaire. De plus, l’utilisation de SMB permet de profiter de ses
innovations telles que le SMB Direct (RDMA) et le SMB multichannel.
- Simplicité de déploiement : comme cité précédemment, Microsoft a mis le focus sur la rapidité et
la simplicité de mise en oeuvre des Storage Spaces Direct. En effet, le Storage Space Direct est
une technique relativement simple à mettre en oeuvre au sein d’une organisation.
- Tolérance aux pannes : cette technologie permet une bonne tolérance aux pannes en cas de
perte d’un noeud ou d’un disque au niveau du Storage Pool. Appelé "Résilience", similaire au
RAID classique qu’on connaît, mais dans ce cas, cela couvre tous les disques qui sont distribués
sur tous les noeuds du cluster. Elle permet également de protéger des racks complets de
serveurs avec la technologie Fault Domain Awareness.
- Efficacité : les Storage Spaces Direct permettent un gain de performances de plus de 2,4 fois
plus élevées, avec des innovations telles que Local Reconstruction Codes, cela permet également
de minimiser la charge au niveau de la consommation CPU.
- Qualité de service (QoS) : la QoS au niveau du stockage permet de contrôler les IOPS qui sont
générés par les machines virtuelles afin de contrôler les charges de travail.
- Heath Service : cette technologie permet de surveiller l’infrastructure de manière continue, elle
permet également d’alerter les administrateurs en cas de soucis au niveau de l’infrastructure.
Avec de nouvelles API, il sera possible de collecter des performances au niveau du cluster et
ainsi de mesurer les capacités.
Modes de déploiement
Microsoft propose avec les Storage Spaces Direct deux méthodes de déploiement :
Résilience
Comme cité plus haut, les Storage Spaces permettent une tolérance aux pannes au niveau des disques,
tels que le système RAID, sauf que dans ce cas précis, cette tolérance sera prise en compte sur tous les
disques qui sont agrégés via les Storage Spaces Direct.
Storage Spaces Direct propose deux catégories de tolérance à la panne qui sont :
40
LP ISVD Virtualisation des systèmes 2017-2018
- le mirroring
- la parité
Le mirroring
Ceci est semblable au RAID 1, il y a la donnée stockée ainsi que sa copie. Dans le cas des Storage
Spaces, chaque donnée est écrite dans son intégralité sur différents matériels physiques (différents
disques physiques sur différents serveurs qui font partie du cluster), ce qui accentue la tolérance à la
panne en cas de panne d’un serveur physique.
Le Two-Way permet d’écrire les données en deux copies, ce qui veut dire qu’au niveau de stockage, 50
% de l’espace disque total est disponible (pour écrire 1 To de données, il faut avoir un espace disque
physique de 2 To pour gérer la donnée et sa copie).
Le Three-Way écrit la donnée trois fois, ce qui offre du 33,3 % de l’espace total au niveau du stockage
libre, pour 1 To de données, il faudra 3 To d’espace physique.
La parité
La notion de parité offre une meilleure efficacité de stockage sans compromettre pour autant la tolérance
à la panne des disques.
Windows Server 2016 offre deux méthodes de parité : Single Parity et Dual Parity.
Single Parity : semblable au RAID 5, cette méthode de parité conserve un seul symbole de parité, elle
fournit une tolérance à la panne contre une seule défaillance à la fois. Avec le Storage Space Direct, il
faut au moins trois serveurs afin de profiter de cette méthode dite Single Parity.
Microsoft décourage l’utilisation de la méthode "Single Parity" vu que celle-ci traite une défaillance
matérielle à la fois, si vous avez un cluster à trois noeuds, lors du reboot d’un serveur, si un disque
tombe en panne sur un autre serveur au même moment, vous aurez une panne au niveau de votre
infrastructure Storage Space Direct
Dual Parity : cette méthode semblable au RAID 6 conserve deux symboles de parité contrairement à la
single Parity, ce qui va offrir une tolérance à la panne contre deux défaillances en même temps. Pour en
profiter, il est nécessaire d’avoir au moins quatre noeuds au sein du cluster Storage Space Direct. Cette
méthode offre un stockage de 50 % de l’espace total, c’est-à-dire que pour stocker 2 To de données, il
faut avoir 4 To de capacité de stockage physique.
Il est possible également de mixer la résilience entre Mirror et Parity, ReFS permet de gérer cela en
déplaçant les données entre les deux types de résilience. Pour un mix du Three Way Mirror et Dual Parity
il faudra au moins quatre noeuds au sein du cluster.
Recommandations
Voici une recommandation Microsoft pour la résilience avec les Storage Spaces Direct, celle-ci mentionne
les prérequis minimums pour chaque cas d’usage et surtout la capacité de stockage restant après avoir
appliqué la résilience.
Dans le cas d’un cluster à 4 noeuds, il est recommandé d’utiliser le Dual Parity vu que cette méthode
permet de tolérer deux défaillances en simultané.
Multirésilience
Windows Server 2016 introduit MultiRésilient Virtual Disks, cela consiste à avoir dans un disque virtuel
deux tiers, un Mirror et un Parity :
Il est donc possible de créer des tiers Mirror et Parity comme ceci :
Tier Mirror :
41
LP ISVD Virtualisation des systèmes 2017-2018
Tier Parity :
ReFS écrit les données qui n’existent pas encore dans le disque dans le tier Mirror et, si c’est une mise à
jour, il va écrire les données dans le tier Parity.
Les nouvelles écritures sur le disque vont toujours être écrites dans le tier Mirror et les anciennes dans le
tier Parity. Cette méthode garantit que l’écriture des données est toujours écrite en miroir vu que c’est
plus performant notamment pour les charges de travail aléatoires.
Ce basculement entre le tier Mirror et Parity est fait grâce au ReFS Real Time Tiering.
Types de disques
- Disque HDD
- Disque SSD
- Disque NVMe
- Disques SAS interne à chaque nœud
- Disque SAS externe connecté via JBOD
NVMe (NonVolatile Memory express), est un disque ultrarapide qui utilise l’interface de connexion PCI
express (PCIe) pour offrir plus de rapidité, contrairement aux SSD qui utilisent les bus SATA ou SAS, par
exemple.
Il est possible de mixer différents types de technologies de stockage au sein des Storage Pool, c’est-à-
dire mixer les disques flash, et des disques magnétiques par exemple.
Ce qui permet de mixer du HDD, SSD et NVMe avec l’algorithme tiering qui va répartir les données en
fonction de leur nature :
Donnée Disque
Chaude SSD
Froide HDD
Cache NVMe
Disques SSD + HDD + NVMe : dans ce scénario, Storage Space Direct va utiliser les disques NVMe de
manière automatique pour la partie Cache, il utilisera les disques SSD pour les données chaudes et les
HDD pour les données froides.
Dans cette configuration spécifique, Storage Space Direct va automatiquement créer deux stockages
tiers :
- Performance
- Capacity
Recommandations réseau
Aspect très important, le réseau entre les noeuds du cluster Storage Space Direct, cette technologie
demande une large bande passante afin d’avoir les performances attendues.
Il est recommandé d’avoir au moins deux cartes réseau 10 GbE entre les noeuds du cluster.
42
LP ISVD Virtualisation des systèmes 2017-2018
- iWRAP : Wide Area RDMA Protocol est un protocole réseau qui utilise RDMA pour le transfert des
données via le réseau.
Voici les étapes qui vont permettre de mettre en place une architecture de stockage avec les Storage
Spaces Direct :
- Deux serveurs avec la même configuration matériels sous Windows Server 2016.
- Les 2 noeuds doivent être joints à un domaine Active Directory.
- Utilisation de PowerShell pour la création, configuration et l’administration.
- Installation de la fonctionnalité FailOver Clustering ainsi que le rôle serveur de fichiers sur les
deux noeuds.
Étape 1 :
Une fois les serveurs prêts pour l’installation, il faut commencer par tester et valider la configuration du
cluster.
Le test cluster est particulier pour un cluster Storage Space Direct, il faut passer la commande
PowerShell muni des paramètres suivants :
Étape 2
Une fois la configuration validée, il faut créer le cluster avec la commande suivante :
Attention à bien spécifier le paramètre -NoStorage qui est important ici pour le Storage Space Direct.
Étape 3 :
Avant d’aller à l’étape suivante, il faut s’assurer que tous les disques physiques sur les noeuds sont bien
vides et sans partitions.
Étape 4 :
Enable-ClusterStorageSpacesDirect
Cette commande peut varier en fonction des disques utilisés sur les noeuds.
Si NVMe + SSD :
Cette commande active le Storage Space Direct et fait les tâches suivantes de manière automatique :
Étape 5 :
43
LP ISVD Virtualisation des systèmes 2017-2018
Une fois le Storage Space Direct activé, il reste à créer les volumes qui seront basés sur le Storage Pool
créé automatiquement lors de l’activation à l’étape 4 de Storage Space Direct.
Possibilité de le faire avec la commande PowerShell suivante (ceci est un exemple, pensez à modifier les
valeurs en fonction de votre contexte). Cette commande crée un disque virtuel en Mirror :
Étape 6 :
Une fois le disque virtuel partagé, il faut stocker les machines virtuelles sur le stockage CSV et nous
obtenons une infrastructure hyperconvergée.
Pour cette partie de mise en œuvre, nous aurons besoin des serveurs suivants :
- Renommage du serveur
- Configuration IP
- Jonction au domaine
- Ajout du rôle serveur de fichiers
Renommage du serveur
Rename-Computer SRVSMB01
Configuration IP
IP : 192.168.2.4 /24
Passerelle : 192.168.2.254
DNS : 192.168.2.1
Le serveur doit être joint au domaine LAB.com
Une fois installé, le serveur SRVSMB01 est dans la capacité de créer des partages SMB3.
Pour lancer l’assistant de création de partage SMB, cliquez sur Pour créer un partage de fichiers,
démarrez l’Assistant Nouveau partage.
44
LP ISVD Virtualisation des systèmes 2017-2018
Sélectionnez le chemin et l’emplacement. Dans cet atelier le chemin sera sur le volume C :. Bien entendu
en production, il faudra avoir un disque autre que le lecteur C:\.
Il est possible également de configurer les autorisations au niveau de ce partage (donner des
restrictions, etc.) :
L’existence du partage SMBSHARE peut être vérifiée dans le Gestionnaire de serveur Services de
fichiers et de partage Partages :
Une fois le partage SMB créé, il faut vérifier que l’accès en lecture/écriture est possible depuis
VH01.lab.com :
Avant d’aller plus loin, il faut également donner les droits aux hyperviseurs VH01.lab.com et
VH02.lab.com d’écriture et de lecture au niveau de ce partage, car c’est avec ces droits là que
l’hyperviseur pourra stocker les machines virtuelles et aussi les lire.
Effectuez un clic droit sur le partage SMBSHARE puis cliquez sur Propriétés :
À ce stade, l’hyperviseur VH01.lab.com est configuré pour lire et écrire sur ce partage, ce qui lui
permettra d’y stocker ces machines virtuelles.
Configuration d’Hyper-V pour le stockage des machines virtuelles sur le partage SMB
Dans les paramètres d’Hyper-V, il reste à spécifier le chemin d’accès réseau du stockage SMB.
Pour les disques virtuels :
Et des fichiers des machines virtuelles :
Une fois configuré, il est possible de créer une machine virtuelle en utilisant le PowerShell :
$VM03 = "VM03SMB"
$CRAM = 512MB
$VM03VHD = 10GB
$VMLOC = "\\srvsmb01\SMBSHARE"
New-VM -Name $VM03 -Path $VMLOC -MemoryStartupBytes $CRAM -NewVHDPath
$VMLOC\$VM03.vhdx -NewVHDSizeBytes $VM03VHD
Une fois créée, il est possible de vérifier le stockage de la machine virtuelle sur le partage SMB en allant
directement sur le partage. On retrouve la machine virtuelle stockée avec son disque dur virtuel et ses
fichiers de configuration :
45
LP ISVD Virtualisation des systèmes 2017-2018
La démarche de Microsoft vise à s’affranchir de l’Active Directory pour la construction d’un cluster Hyper-
V en cas de nécessité. Chose qu’on ne pouvait pas faire sous Windows Server 2012 R2.
Avec Windows Server 2016, il est possible désormais de créer un cluster en Workgroup, c’est-à-dire que
les noeuds du cluster sont en Workgroup et ne sont pas joints à un domaine Active Directory.
Avec Windows Server 2016, il est possible de créer un cluster avec trois configurations différentes :
- Création d’un cluster avec un domaine Active Directory simple : c’est ce qu’on a connu
jusqu’à présent, c’est-à-dire que la création du cluster va se baser sur un domaine Active
Directory.
- Création d’un cluster multidomaine : cette configuration offre la possibilité de créer un
cluster dans lequel les nœuds de ce dernier sont dans des domaines Active Directory différents.
- Création d’un cluster en WorkGroup : cette configuration permet de créer un cluster sans
domaine Active Directory, les nœuds du cluster sont en Workgroup.
Concept
Le concept du cluster sans Active Directory peut être intéressant pour un cluster SQL Server par exemple
ou encore Hyper-V.
Microsoft enlève la dépendance de l’Active Directory pour la construction d’un cluster, bien entendu pour
certains services ce n’est pas recommandé à cause de l’absence du domaine Active Directory donc
l’absence de Kerberos, on pense notamment aux clusters de serveurs de fichiers pour les partages SMB.
Pour les clusters Hyper-V, c’est supporté mais non recommandé pour l’instant. De plus, les clusters
Hyper-V en Workgroup ne supportent pas Live Migration (migration à chaud), mais ils supportent tout de
même Quick Migration.
La mise en place d’un cluster en Workgroup est extrêmement simple, mais il faut respecter plusieurs
prérequis avant d’entamer l’implémentation.
Les prérequis pour implémenter un cluster en Workgroup sont les suivants :
Dans ce cas, il sera configuré un cluster de deux noeuds (VH01) et (VH02) en Workgroup, ces deux
serveurs ont été remis à zéro.
Dans notre cas, nous avons deux serveurs VH01 et VH02 fraîchement réinstallés et configurés au niveau
TCP/IP.
(IP / DNS), ils sont bien entendu sur le même réseau et peuvent se joindre mutuellement.
Étape 1 : création d’un utilisateur local Clus sur les deux noeuds, et mettre cet utilisateur dans le groupe
Administrateur local.
Le compte local doit être le même sur les deux noeuds, son mot de passe doit être le même également
sur les deux noeuds.
Étape 2 : vu qu’on n’utilise pas de compte administrateur Builtin local, il faut fixer la clé de registre
suivante à 1 :
HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System\
LocalAccountTokenFilterPolicy
46
LP ISVD Virtualisation des systèmes 2017-2018
Pour cela, il est possible de le faire via l’éditeur de registre en interface graphique, ou alors en
PowerShell comme ceci :
new-itemproperty -path
HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System -Name
LocalAccountTokenFilterPolicy -Value 1
Une fois terminée, il est possible de se rendre dans la MMC cluster à basculement et constater que le
cluster en Workgroup WorkGroupCluster01 est créé, comme ceci :
Il est possible depuis la console Virtual Machine Manager de créer des VM et de créer un serveur
d’administration VMM à haut niveau de disponibilité.
Vous trouverez également sur le site de Microsoft Technet toutes les infos utiles pour Hyper-V
https://technet.microsoft.com/fr-fr/library/hh846766(v=ws.11).aspx
47