TP Hyper V v2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 47

LP ISVD Virtualisation des systèmes 2017-2018

Technologies de virtualisation
Hyper-V

1. Présentation de l’architecture du TP
2. Présentation d’Hyper-V
3. Installation et configuration d’Hyper-V
4. Gestion et administration d’Hyper-V
5. Les commutateurs virtuels
6. Création et gestion des machines virtuelles
7. Concept de migration de machine virtuelle
8. Stockage sous Hyper-V
9. Hyper-V, la convergence et l’hyperconvergence avec Windows Server
10. Hyper-V Over SMB
11. Conception d’un cluster Hyper-V en Workgroup
12. Présentation de SCVMM

Ce TP sera organisé par groupe de 3 avec une machine par étudiant.

Chaque machine est équipée de Windows Serveur 2016 ou à défaut de Windows Serveur 2012 R2.

Attention aux adresses IP : elles devront être différentes suivant les groupes et donc être modifiées par rapport à
l’architecture type donnée ci-dessous.

Tous les logiciels Microsoft sont téléchargeables en version dévaluation :


https://www.microsoft.com/fr-fr/evalcenter/

1. Présentation de l’architecture du TP
Élément Description Réseau LAN IP Live Réseaux IPLAN
Stockage Migration HA
DC01 Contrôleur de domaine 192.168.2.0 /24 N/A N/A N/A 192.168.2.1
VH01 Serveur Hyper-V 192.168.2.0 /24 172.16.1.3 10.10.11.1 10.10.10.1 192.168.2.2
01 172.16.1.4
VH02 Serveur Hyper-V 192.168.2.0 /24 172.16.1.5 10.10.11.2 10.10.10.2 192.168.2.3
02 172.16.1.6
VH03 Serveur Hyper-V 192.168.3.0 /24 N/A N/A N/A 192.168.3.1
03 (site secondaire) (Site secondaire) (site secondaire)
vStore01 Serveur de stockage N/A 172.16.1.1 N/A N/A N/A
172.16.1.2
SRVSMB01 Serveur de stockage 192.168.2.0 /24 N/A N/A N/A 192.168.2.4
(mode fichier)

Descriptions des éléments

DC01 : contrôleur de domaine, le domaine sera : Lab.com.

VH01 : premier serveur Hyper-V 2016, qui sera également un nœud du futur cluster.
VH03 : troisième serveur Hyper-V 2016, sur lequel les VMs seront répliquées avec Hyper-V Replica pour la mise
en œuvre d’un PRA (Plan de reprise d’activité).
vStore01 : le serveur de stockage qui va fournir les cibles iSCSI pour le stockage des VMs, le stockage sera mis
en œuvre grâce à la technologie de convergence : les Storage Spaces.
SRVSMB01 : serveur SMB qui aura pour but d’héberger les machines virtuelles d’Hyper-V dans un partage SMB3
(Hyper-V Over SMB).

1
LP ISVD Virtualisation des systèmes 2017-2018

Serveur de virtualisation
Les serveurs de virtualisation doivent supporter la virtualisation. Ils doivent donc posséder un processeur 64 bits
qui permet la virtualisation matérielle telle que Intel-V (Intel Virtualization) chez Intel ou encore AMD-V pour (AMD
Virtualization) chez AMD, ainsi que la gestion du SLAT (Second-Level address Translation).

DEP (Hardwareenforced Data Execution Prevention) doit être également activée.

Première étape :
Vérifier que vos serveurs respectent bien les prérequis d’Hyper-V lancez une fenêtre CMD et lancez l’application
suivante : Systeminfo.exe.
Ensuite, allez au niveau de la ligne Hyper-V Requirements et vérifiez que tous les éléments sont à YES.

Nested Virtualization

Vous pouvez utiliser des logiciels de virtualisation pour organiser ce TP de manière virtualisée.
De ce fait, vous allez utiliser le Nested Virtualization, c’est-à-dire que vous allez devoir virtualiser des
hyperviseurs, plusieurs choix s’offrent à vous :

- L’utilisation de Vmware Workstation


- Hyper-V sous Windows 10 avec au moins la Build 10565 ou plus

Afin d’utiliser le Nested Virtualization sur votre station de travail, il est recommandé d’utiliser une station avec au
moins 16 Go de RAM, ainsi qu’un Processeur 64 bits qui prend en charge la virtualisation matérielle (Intel-VT).

Pour plus de détails : https://docs.microsoft.com/fr-fr/virtualization/hyper-v-on-windows/user-guide/nested-


virtualization

2. Présentation d’Hyper-V
Hyper-V est la plateforme de virtualisation Microsoft qui permet de créer des infrastructures virtuelles
sous Windows ou / et Linux. Hyper-V permet de faire cohabiter de manière isolée plusieurs systèmes
d’exploitation sur une même machine physique (Hyperviseur).

Hyper-V a vu le jour avec Windows Server 2008, depuis, plusieurs versions sont sorties, plusieurs
nouveautés et améliorations sont apportées dans chaque nouvelle version, cela permet à Hyper-V et à
Microsoft de s’accroître dans le marché de la virtualisation afin de concurrencer le leader du marché
Vmware avec leur suite vSphere.

Hyper-V Version 1 Windows Server 2008 Version machine virtuelle 1.0


Windows Server 2008 SP1 Version machine virtuelle 2.0
Hyper-V Version 2 Windows Server 2008 R2 Version machine virtuelle 3.0
Hyper-V Version 3 Windows Server 2012 Version machine virtuelle 4.0
Hyper-V Version 4 Windows Server 2012 R2 Version machine virtuelle 5.0
Hyper-V Version 5 Windows Server 2016 Version machine virtuelle 6 / 6.2 / 7 et 8

Hyper-V est un hyperviseur de type 1 en mode Micronoyau, qui fonctionne avec des isolements d’unité
logique ou "Partitions". Ces unités logiques isolées vont faire exécuter des systèmes d’exploitation
invités. Afin d’accéder au matériel physique de l’hyperviseur (carte réseau, etc.) ces unités logiques
(machines virtuelles) devront passer par la machine virtuelle principale, autrement dit la partition parent
qui permet de faire la communication entre les partitions enfants (machine virtuelle) et le matériel
physique.

Pour plus de détails : https://msdn.microsoft.com/enus/library/cc768520(v=bts.10).aspx.

Hyper-V est conçu pour gérer des systèmes d’information de production, il offre plusieurs scénarios :

- Haute disponibilité
- Flexibilité
- Plan de reprise d’activité

Différence entre Hyper-V on Windows et Hyper-V on Windows Server

Hyper-V sur Windows client n’a pas beaucoup de différence avec Hyper-V sur Windows Server. Par
contre, ils se différencient au niveau de la gestion de la mémoire. Hyper-V sur Windows Server gère la
mémoire avec l’hypothèse que seules les machines virtuelles sont en cours d’exécution sur le serveur.

2
LP ISVD Virtualisation des systèmes 2017-2018

Tandis qu’Hyper-V sur Windows, la gestion de la mémoire est un peu différente dans le sens où il permet
le lancement de machines virtuelles ainsi que d’autres applications en même temps sur le même
ordinateur, ce qui permet à un utilisateur par exemple d’utiliser une application lourde et d’exécuter
plusieurs machines virtuelles sur la même station de travail en même temps.

Les fonctionnalités suivantes ne sont pas disponibles pour la version Hyper-V sur Windows :
- Hyper-V Replica
- Remote FX capability to virtualize GPUs qui permet d’améliorer l’expérience graphique 3D des
utilisateurs dans les architectures VDI (Virtual Desktop Infrastructure) permet la redirection des
périphériques USB
- SRIOV (Single-Root Input/Output Virtualization)
- Disque VHDx partagé
- Port virtuel Fibre Channel
- Live Migration d’un hôte Windows vers un autre hôte Windows

3. Installation et configuration d’Hyper-V


Hyper-V possède différents modes d’installation :
- Hyper-V sur Windows Server 2016 version complète (Expérience utilisateur – interface graphique)
- Hyper-V sur une version core
- Hyper-V sur Nano Server

Windows Server version core

La version core de Windows Server 2016 offre les mêmes fonctionnalités que la version complète, hormis
l’interface graphique, car un serveur core ne contient pas d’interface graphique, ce qui permet d’apporter
plusieurs avantages au niveau de la consommation, et au niveau de la sécurité du serveur.

Avantages de la version core


Les serveurs core apportent plusieurs avantages :
o Performance : réduction de consommation ; la RAM, le CPU seront moins sollicités.
o Sécurité : moins de surface d’attaque vu qu’il n’y a pas d’interface graphique et surtout
moins de logiciels d’installés tels qu’Internet Explorer, etc. De plus, seuls les services
nécessaires sont utilisés.
o Gestion : la gestion reste quand même assez simple, notamment avec les outils de
gestion à distance (RSAT) cela permettra aux administrateurs de garder une interface
graphique pour l’administration.

Active Directory
Afin de réaliser notre infrastructure cible Hyper-V hautement disponible, un domaine active directory est
nécessaire.

Avant d’installer Active Directory sur le serveur DC01, il faut procéder à sa configuration.

Configuration du serveur
Le serveur DC01 qui est déjà installé (Windows Server 2012 R2 ou 2016 version complète) doit être
configuré comme ceci :

Élément Valeur
Nom DC01
Adresse IP 192.168.2.1
Masque de sous-réseaux 255.255.255.0
Passerelle par défaut 192.168.2.254
Serveur DNS préféré 127.0.0.1
Mettre le serveur à jour Windows Update

Une fois que vous avez configuré votre serveur comme ceci, vous pouvez passer à l’installation d’Active
Directory.

Installation d’Active Directory

Dans cette section, nous allons voir l’installation d’Active Directory en ajoutant le rôle AD DS (Active
Directory Domain Services) ainsi que la promotion de notre serveur DC01 en tant que contrôleur de
domaine.

Ajoutez le rôle Service AD DS.

3
LP ISVD Virtualisation des systèmes 2017-2018

À l’issue de l’installation, vous devez promouvoir votre serveur DC01 en tant que contrôleur de domaine
Active Directory.

Il faut créer une nouvelle forêt avec le nom de domaine racine : Lab.com. Cliquez sur Suivant et suivez
les instructions de l’assistant.

Laissez cocher la fonctionnalité DNS et saisissez un mot de passe du mode de restauration.


Cliquez sur Suivant afin de passer à l’étape suivante.

Laissez le nom de domaine NetBIOS comme ceci : LAB, et cliquez sur Suivant.

Spécification de l’emplacement du dossier SYSVOL, la base de données Active Directory, etc. :

Cliquez sur Suivant.

Vous devrez avoir normalement une fenêtre qui confirme ce que vous avez configuré, et la possibilité
également de télécharger le script PowerShell qui vous permet de faire des déploiements d’Active
Directory de manière automatisée.

Ensuite, cliquez sur Suivant.

Vérification de votre configuration

Vous devez avoir une configuration qui respecte les prérequis pour promouvoir votre serveur en
contrôleur de domaine dans les bonnes conditions.

Une fois la configuration requise vérifiée, vous pouvez cliquer sur Installer.

Redémarrez votre serveur DC01 à la fin de l’installation. Après le redémarrage de votre serveur, Active
Directory sera fonctionnel.

Vous pouvez également promouvoir votre serveur en tant que contrôleur de domaine avec le script
PowerShell suivant :

Import-Module ADDSDeployment
Install-ADDSForest `
-CreateDnsDelegation:$false `
-DatabasePath "C:\Windows\NTDS" `
-DomainMode "WinThreshold" `
-DomainName "Lab.com" `
-DomainNetbiosName "LAB" `
-ForestMode "WinThreshold" `
-InstallDns:$true `
-LogPath "C:\Windows\NTDS" `
-NoRebootOnCompletion:$false `
-SysvolPath "C:\Windows\SYSVOL" `
-Force:$true

Créez un utilisateur avec les droits administrateurs afin de réaliser toutes les opérations liées à l’Active
Directory.

Configuration des serveurs HyperV

Cette section vous présente les manipulations à faire afin de configurer les serveurs de l’infrastructure
cible.

L’Active Directory est installé et configuré, il faut donc joindre les serveurs au domaine Lab.com. Pour
cela, il est nécessaire de faire quelques configurations au niveau des serveurs telles que :
- Configuration des noms de serveurs
- Configuration réseau

Nom des serveurs


Les serveurs de l’infrastructure restants doivent être renommés :

Nom serveur Description IP LAN


VH01 Hyperviseur 1 192.168.2.2

4
LP ISVD Virtualisation des systèmes 2017-2018

VH02 Hyperviseur 2 192.168.2.3

Renommez un serveur en PowerShell avec la commande suivante :

Rename-Computer Nouveau_Nom

Vous devez renommer vos deux serveurs comme ceci : VH01 et VH02.

Configuration réseau

Cette section montre la configuration IP de chaque hyperviseur (VH01 et VH02) pour le réseau de
production afin qu’ils puissent être joints au domaine.

Voici le script qui permet de configurer les cartes réseau LAN de chaque hyperviseur (VH01 et VH02) :

VH01 :

$LAN ="LAN"
New-NetIPAddress -InterfaceAlias $LAN -IPAddress 192.168.2.2 -PrefixLength
24 -DefaultGateway 192.168.2.254 -AddressFamily IPv4

Set-DnsClientServerAddress -InterfaceAlias $LAN -ServerAddresses 192.168.2.1

VH02 :

$LAN ="LAN"
New-NetIPAddress -InterfaceAlias $LAN -IPAddress 192.168.2.3 -PrefixLength
24 -DefaultGateway 192.168.2.254 -AddressFamily IPv4

Set-DnsClientServerAddress -InterfaceAlias $LAN -ServerAddresses 192.168.2.1

Il est conseillé de vérifier la connectivité entre les serveurs VH01 et VH02 et le contrôleur de domaine
DC01.

Jonction au domaine

La configuration réseau est terminée, nous pouvons désormais procéder à l’ajout des serveurs à notre
domaine.
Une unité d’organisation Servers contiendra tous les serveurs de l’infrastructure.

Appliquez ce script sur les deux serveurs (VH01 et VH02) :

#Ajout des serveurs au domaine LAB.COM

$OU ="OU=Servers,DC=LAB,DC=COM"
$Domain ="LAB.COM"
$Cred ="LAB\adm-util"

Add-Computer -DomainName $Domain -OUPath $OU


-Credential $Cred -Restart – Force

Le script suivant vérifie la présence des serveurs dans l’AD :

#Affichage des serveurs qui sont dans l’AD

$ADServeurProp = @("name", "Operatingsystem","Created","Enabled" )

$ADServeurPropGet = @("name", "Operatingsystem","Created","Enabled" )

Get-ADComputer -Filter * -Properties $ADServeurProp |


select $ADServeurPropGet | Out-GridView

Les deux serveurs VH01 et VH02 sont joints au domaine.

Une fois que les serveurs sont bien configurés et joints au domaine, l’installation d’Hyper-V pourra
commencer.

5
LP ISVD Virtualisation des systèmes 2017-2018

Installation d’Hyper-V
Cette section présentera l’installation d’Hyper-V sous différentes formes et différents modes :
- Via le Gestionnaire de serveur
- En PowerShell
- Sur un serveur core
- Sur un Nano Server

Installation du rôle Hyper-V

L’installation d’Hyper-V se fera de la manière suivante, sur VH01 Hyper-V sera installé de manière
graphique via le Gestionnaire de serveur, tandis que sur VH02, il sera installé en PowerShell. Ceci dans le
but de montrer plusieurs manières d’installation, en interface graphique et en PowerShell.

Installation d’Hyper-V via le Gestionnaire de serveur

Allez dans le Gestionnaire de serveur de votre serveur VH01 et cliquez sur Ajouter des rôles et
fonctionnalités.

Choisissez ensuite le rôle Hyper-V et ajoutez les outils d’administration ainsi que le module PowerShell
en cliquant sur Ajouter des fonctionnalités, et cliquez sur Suivant.

Laissez tous les paramètres par défaut, et cliquez sur Suivant jusqu’à ce que vous arriviez sur la fenêtre
Confirmation.

Cliquez sur Installer pour lancer l’installation d’Hyper-V.

À l’issue du redémarrage du serveur VH01, il est possible de vérifier la présence du rôle Hyper-V avec la
commande suivante :

Get-WindowsFeature Hyper-V*

Installation d’Hyper-V en PowerShell

Cette section montrera l’installation d’Hyper-V en PowerShell sur le serveur VH02.

Ouvrez une console PowerShell en tant qu’administrateur et saisissez la commande suivante :

Install-WindowsFeature -Hyper-V -Restart

À l’issue du redémarrage du serveur, Hyper-V sera installé.

Installation d’Hyper-V sur un serveur core

Pour installer Hyper-V sur un serveur core, une fois connecté sur le serveur, saisissez PowerShell dans
l’invite de commande. Et lancez l’installation avec la commande suivante :

Install-WindowsFeature -Hyper-V -Restart

À l’issue du redémarrage du serveur, Hyper-V sera installé.

Windows Server Nano Server et Hyper-V

Nano Server est un nouveau mode d’installation de Windows Server 2016. Nous avons désormais trois
modes d’installation en fonction des besoins :
- Installation version complète
- Installation version core
- Installation Nano Server

Ce nouveau mode d’installation offre des serveurs prêts à l’emploi de manière très rapide, conçus pour
des applications type cloud, avec une brique qui est encore plus basse que le serveur core et plus légère.

Les nano serveurs offrent des environnements très denses, tels que des hyperviseurs HyperV,
Des environnements de stockage ou encore de haute disponibilité avec le clustering. Les nano serveurs
peuvent également être Container Host et héberger des containers.

6
LP ISVD Virtualisation des systèmes 2017-2018

Les nano serveurs contiennent le strict minimum au niveau composants et logiciels afin de rendre ces
derniers les plus légers et surtout les moins vulnérables possible. Autrement dit, pas d’interface
graphique, Les nano serveurs sont administrables via PowerShell à distance ou alors avec les outils de
gestion à distance.

Les nano serveurs possèdent plusieurs avantages qui pourront faciliter le quotidien des administrateurs,
mais également sécuriser leur infrastructure.
- Moins de patchs critiques pour le système (92 % en moins).
- Un redémarrage ultrarapide comparé aux autres versions de Windows Server 2016.
- Moins de consommation au niveau mémoire, consomme moins qu’un serveur Linux.
- 93 % de moins au niveau de la taille du VHD (environ 400 MB).
- 80 % de moins de reboot.
- Une surface d’attaque très réduite, donc moins vulnérable aux attaques.
- Rapidité de déploiement.
- Support de plusieurs scénarios d’utilisation.

Les nano serveurs offrent plusieurs scénarios au niveau infrastructure ou applicatif :


- Serveur d’application
- Serveur DNS (Domaine Name Service)
- Hyperviseur Hyper-V
- Server Web sous IIS (Internet Information Services)
- Serveur de stockage
- Container Host

La création de nano serveurs peut se faire de plusieurs manières :


- Création de nano serveurs sur une machine virtuelle.
- Création de nano serveurs sur une machine physique.
- Création de nano serveurs dans Microsoft Azure.

Nous allons voir ici l’installation de Nano Server sur une machine virtuelle sous Hyper-V.

Une fois le serveur Windows Server 2016 installé, il est possible de monter l’ISO Windows Server 2016
dessus.
Une fois monté, on trouvera un dossier spécial NanoServer.

Tout va se passer avec le dossier NanoServer. Ce dernier contient les éléments suivants :
- Les packages pour l’installation des différents rôles sur l’image Nano Server.
- Le script de création de l’image Nano Server.
- L’image Wim Windows Server sur laquelle la création de l’image Nano Server va se baser.
- Un module PowerShell qui permettra la création de l’image Nano Server.

Copiez l’ISO de Windows Server 2016 dans le dossier C:\Temp du serveur Hyper-V VH01, et créez un
dossier Nano dans la racine C :

Montez l’ISO Windows Server 2016, allez dans l’ISO et allez dans le dossier
NanoServer\NanoServerImageGenerator. Copiez les fichiers suivants dans C:\Nano.

- ConvertWindowsImage.PS1
- NanoServerImageGenerator.PSM1

Pour information :

- ConvertWindowsImage.PS1 correspond à un script PowerShell qui va convertir une image


Wim en VHDx.
- NanoServerImageGenerator.PSM1 correspond au module PowerShell afin de créer les nano
serveurs.

Étape 1 :

Lancez une console PowerShell en tant qu’administrateur.

Importez le module PowerShell comme ceci :

Cd C:\Nano
Import-Module NanoServerImageGenerator.psm1

Une fois le module PowerShell installé, il offre les commandes suivantes :

7
LP ISVD Virtualisation des systèmes 2017-2018

- Edit-NanoServerImage permet d’éditer et ajouter des packages dans le Nano Server


- Get-NanoServerImage liste des packages (.CAB)
- New-NanoServerImage crée une image Nano Server

Étape 2 :

Créez le VHDx Nano Server :

New-NanoServerImage -DeploymentType Guest -Edition DataCenter -MediaPath D:


-BasePath .\NanoWork -TargetPath
.\Nano01.vhdx -ComputerName Nano01

Lors de l’application du script de création, un mot de passe administrateur sera demandé, ce mot de
passe servira pour l’authentification au niveau du Nano Server.

Si l’extension du futur disque dur virtuel est en VHDx, la génération de la VM devra être de génération 2,
si le disque virtuel est de type VHD, la machine virtuelle devrait être de génération 1.

Explication des paramètres de création

-DeploymentType correspond au type d’image Nano Server. Avec le paramètre Guest, ce sera une
machine virtuelle qui sera hébergée sous Hyper-V, tandis que le paramètre Host permet d’avoir une
image Nano Server qui sera hébergée sur un serveur physique directement.

-Edition : c’est le type d’édition de l’OS du Nano Server (Standard ou DataCenter).

-MediaPath correspond à l’ISO monté sur le serveur Hyper-V VH01.

-BasePath : répertoire de base qui contient tous les fichiers liés au Nano Server tels qu’un VHDx de
base et l’image Wim Nano.

-TargetPath : chemin dans lequel sera stocké le VHDx du Nano Server.

-ComputerName : nom du serveur, ça sera le nom de l’objet quand il sera ajouté dans le domaine
Lab.com.

La création du VHDx Nano Server commence.

Il y a également un emplacement où se trouvent les logs afin de vérifier s’il y a des erreurs lors de la
génération du VHDx Nano Server :
C:\Users\ADMINI~1.LAB\AppData\Local\Temp\NanoServerImageGenerator.log.

À l’issue de la création, le VHDx Nano Server se trouve dans le dossier suivant : C:\Nano\Nano1.vhdx.

Il est intéressant de noter la taille initiale du VHDx Nano Server, qui est de 676 Mo.

Le VHDx Nano Server est créé, il sera donc possible de créer une machine virtuelle et attacher ce disque
virtuel.

Il est possible également d’installer Nano Server directement dans Microsoft Azure, avec une image déjà
prête à l’emploi. Pour cela, vous devez avoir un abonnement Microsoft Azure.

Une fois que le VHDx Nano Server est créé, il est possible d’ajouter plusieurs rôles et fonctionnalités via
des packages (.CAB).

Le tableau ci-dessous montre les rôles avec leur nom qui sont supportés dans Nano Server :

Rôle & fonctionnalité Option


Rôle Hyper-V -Compute
DNS -Packages Microsoft-NanoServer-
DNS-Package
Failover Clustering -Clustering
Drivers afin d’héberger un nano serveur en tant que -GuestDrivers
machine virtuelle sur Hyper-V
Déploiement de Nano Server sur un serveur physique -Microsoft-NanoServer-Host-Package

8
LP ISVD Virtualisation des systèmes 2017-2018

Serveur de fichiers et stockage -Storage


IIS -Packages Microsoft-NanoServer-
IIS-Package
Desired State Configuration (DSC) -Packages Microsoft-NanoServer-
DSC-Package
Windows Defender AntiMalware -Defender
Drivers de base (cartes réseau, contrôleur de stockage) -OEMDrivers
Support des containers -Containers
SCVMM Agent -Packages Microsoft-Windows-
Server-SCVMMPackage
-Packages Microsoft-Windows-
Server-SCVMM-Compute-Package
Datacenter Bridging -Packages Microsoft-NanoServer-
DCB-Package
Reverse forwarders -ReverseForwarders
NPDS (Network Performance Diagnostics Service) il -Packages Microsoft-NanoServer-
nécessite la présente du package Defender AntiMalware
NPDSPackage
Shielded VM -Packages Microsoft-NanoServer-
ShieldedVMPackage
Secure Startup -Packages Microsoft-NanoServer-
SecureStartup-Package

Les packages (.cab) se trouvent dans le dossier NanoServer\Packages et dans le dossier (fr-FR) une fois
l’ISO de Windows Server 2016 monté.

Installation du rôle Hyper-V sur Nano Server

L’installation d’Hyper-V sur Nano Server peut se faire directement en console et de manière très simple.

Pour l’installation de ce dernier, saisir la commande PowerShell suivante :

Edit-NanoServerImage -BasePath .\NanoWork\ -TargetPath .\Nano01.vhdx -Compute

Le système va monter l’image, ajouter le package (Hyper-V) et démonter l’image par la suite. C’est la
méthode offline d’ajout de package au Nano Server.

À ce stade, Hyper-V est installé sur le Nano Server, la gestion d’Hyper-V sous Nano peut se faire soit en
PowerShell, en PowerShell Direct ou alors en interface graphique en ajoutant un groupe de serveurs dans
le Gestionnaire de serveur, et accéder à l’Hyper-V installé sur un serveur distant via un Gestionnaire
Hyper-V par exemple.

Le serveur Nano Server sera configuré afin qu’il puisse être joint au domaine, pour cela, il faut configurer
ses paramètres TCP/IP.

Le script suivant permet de configurer l’adressage IP du Nano Server :

Edit-NanoServerImage -BasePath .\NanoWork\ -TargetPath .\Nano01.vhdx -


InterfaceNameOrIndex Ethernet -Ipv4Address 192.168.10.1 -Ipv4SubnetMask
255.255.255.0 -Ipv4Gateway 192.168.10.254

Le serveur Nano Server est configuré, il reste à créer une machine virtuelle, faire pointer le VHDx dessus
et la joindre au domaine.

4. Gestion et administration d’Hyper-V


Hyper-V Manager ou Gestionnaire Hyper-V est une console qui permet de gérer Hyper-V. Elle permet
l’administration, le paramétrage ainsi que la création des machines virtuelles, des commutateurs virtuels
et des disques virtuels.

Avec le Gestionnaire Hyper-V, il est possible de configurer plusieurs paramètres d’Hyper-V tels que le
stockage par défaut des disques durs virtuels, la gestion des GPUs physiques ou encore le
fractionnement NUMA.
La console de paramètres Hyper-V se présente comme ceci avec deux parties de paramétrage :
- Serveur : paramètres du serveur HyperV

9
LP ISVD Virtualisation des systèmes 2017-2018

- Utilisateur : paramètres au niveau de l’expérience "utilisateur / administrateur"

Paramètres serveur

Disques durs virtuels permet d’indiquer l’emplacement des disques durs virtuels des machines
virtuelles (il peut être changé en fonction des besoins).
Ordinateurs virtuels permet d’indiquer l’emplacement des fichiers de configuration des machines
virtuelles (il peut être changé en fonction des besoins).
GPU physiques : cette partie gère le Remote Fx avec la carte graphique de l’hyperviseur.
Fractionnement NUMA : partie qui permet le fractionnement des noeuds NUMA (Non Uniform Memory
Architecture). Cela permet une optimisation de l’hyperviseur en lançant davantage de machines virtuelles
au même moment.
Migrations dynamiques : partie qui permet de configurer la migration des machines virtuelles entre un
Hyper-V A vers un Hyper-V B et inversement.

Il est possible également de configurer le nombre de migrations dynamiques simultanées.

De plus, il est possible de configurer le réseau de migration si l’hyperviseur dispose d’un réseau dédié
pour la migration de machine virtuelle, ou alors laisser la configuration par défaut, ce qui se traduit par
l’utilisation de n’importe quel réseau disponible au niveau de l’hyperviseur pour d’effectuer la migration.
Cette fonction n’est pas activée par défaut.

Migrations du stockage : cette partie permet la migration du stockage (des disques virtuels et fichiers
de configuration) des machines virtuelles. Il est possible de modifier le nombre de migrations du
stockage simultané, par défaut, la valeur est fixée à 2.

Avec cette fonction, il est possible de migrer les fichiers des machines virtuelles (disques durs virtuels,
fichier de configuration, etc.) d’un emplacement A vers un emplacement B au sein du même hyperviseur.

Stratégie de mode de session étendu : son activation permet d’avoir des connexions en mode
session étendue une fois connecté sur les machines virtuelles qui sont en cours d’exécution sur
l’hyperviseur.

Cela permet une redirection des périphériques et ressources locaux depuis l’ordinateur qui effectue la
connexion aux machines virtuelles, dans le but d’avoir une meilleure expérience utilisateur avec les
machines virtuelles.

Il est possible de rediriger les ressources locales suivantes :


- Audio
- Imprimantes
- Périphériques USB
- Prise en charge du Plug and Play
- Configuration d’affichage
- Lecteurs

10
LP ISVD Virtualisation des systèmes 2017-2018

Configuration de la réplication : partie qui permet l’activation et la configuration d’Hyper-V Replica.


Hyper-V Replica permet la réplication des machines virtuelles d’un hôte de virtualisation Hyper-V qui se
trouve dans un site A vers un hôte de virtualisation Hyper-V qui se trouve dans un site B.
Il est possible de configurer plusieurs paramètres comme l’authentification, le port ainsi que
l’emplacement des réplicas.

Paramètres utilisateurs

Clavier : configuration de l’utilisation des combinaisons de touches Windows avec les machines virtuelles
une fois connecté à la console de la VM.

Touche de relâchement de la souris : configuration de la combinaison qui permet le relâchement de


la souris une fois connecté sur une machine virtuelle si les pilotes de la machine virtuelle en question ne
sont pas installés.

Mode de session étendu : utilisation du mode session étendue ou non lorsque celui-ci est disponible
dans un système d’exploitation d’une machine virtuelle.

Administration d’Hyper-V

Hyper-V peut être administré de plusieurs façons :


- Gestionnaire Hyper-V, qui est présenté dans la section précédente.
- À distance via Gestionnaire Hyper-V.
- Via PowerShell.

Il est possible de gérer, d’administrer et de créer des ressources virtuelles (Disques durs virtuels,
commutateurs virtuels, machines virtuelles) directement à partir du Gestionnaire Hyper-V en local.

Il est également possible d’administrer et de gérer Hyper-V 2016 directement à distance depuis un autre
Gestionnaire Hyper-V en se connecter sur l’Hyper-V que l’on souhaite administrer.

Une des nouveautés dans Hyper-V 2016, c’est la possibilité de choisir d’autres identifiants pour gérer un
Hyper-V à distance.

Il est possible également de gérer Hyper-V directement depuis une station de travail Windows 8,
Windows 8.1, Windows 10 en ajoutant la fonctionnalité Outils d’administration Hyper-V.

Il est possible de gérer Hyper-V (version core ou complète) via PowerShell directement en local ou à
distance. En installant Hyper-V 2016, un module Hyper-V avec plusieurs commandes est disponible :

La gestion en PowerShell se fait soit directement sur le serveur Hyper-V en question, en local, ou alors
à distance.
Afin de se connecter sur un serveur Hyper-V distant en PowerShell il est nécessaire d’activer PowerShell
Remoting sur tous les serveurs qui seront gérés à distance.
Ici, nous allons nous connecter via une session PowerShell à distance sur le serveur VH02 qui a pour
adresse IP (192.168.2.3) depuis le serveur VH01.

À réaliser sur VH02 :

Enable-PSRemoting

À réaliser sur VH01 :

Ensuite, ajoutez dans le trustedHost le serveur qui sera géré via une session PowerShell à distance :

set-item WSMan:\localhost\client\trustedHosts 192.168.2.3

Restart-Service WinRM

Et pour finir, établissez la connexion à distance en PowerShell, comme ceci :

Enter-PSSession -ComputerName 192.168.2.3 -Credential lab\administrateur

11
LP ISVD Virtualisation des systèmes 2017-2018

À ce stade, vous êtes en mesure de vous connecter sur un Hyper-V (version core ou complète) à
distance via une session PowerShell.

5. Les commutateurs virtuels


Les commutateurs virtuels dans Hyper-V vont permettre l’interconnexion entre les machines virtuelles
mais aussi, selon le type de commutateur virtuel choisi, avec des environnements extérieurs tels que le
contrôleur de domaine, des serveurs web, Internet, etc. Ce chapitre présente les différents types de
commutateurs virtuels dont dispose Hyper-V.

La gestion des commutateurs virtuels se passe dans le volet droit du Gestionnaire Hyper-V dans le menu
Gestionnaire de commutateurs virtuels.

Le gestionnaire de commutateurs virtuels possède deux rubriques :


- Commutateurs virtuels : création des commutateurs virtuels.
- Paramètres du réseau global : définition des plages d’adresse MAC qui seront distribuées de
manière automatique.

Il est possible de créer plusieurs types de commutateurs virtuels :


- Externe
- Interne
- Privé

Un commutateur virtuel de type "privé" permet de faire communiquer toutes les machines virtuelles
entre elles, ces machines virtuelles doivent être connectées au même commutateur virtuel de type
"privé".
Avec ce type de commutateur, les machines virtuelles sont isolées, car elles ne peuvent pas
communiquer avec l’hôte de virtualisation Hyper-V qui les héberge ni avec l’environnement extérieur
(comme d’autres serveurs, ou sortir sur Internet).

Pour créer un commutateur virtuel privé, sélectionnez Privé, puis cliquez sur Créer le commutateur
virtuel.

Nommez le commutateur et cliquez sur Appliquer et OK.

La création d’un commutateur virtuel de type privé en PowerShell se fait avec la commande suivante :

New-VMSwitch -name "Privé2" -SwitchType Private

Vérification des commutateurs de type privé créés avec la commande suivante :

Get-VMSwitch

Un commutateur de type "interne" permet de faire communiquer les machines virtuelles entre elles, de
plus il permet la communication entre les machines virtuelles qui sont attachées à ce commutateur
virtuel interne et l’hôte de virtualisation Hyper-V qui les héberge.
Les machines virtuelles ne peuvent toujours pas communiquer avec des environnements extérieurs tels
que des serveurs qui sont en dehors de l’hyperviseur.
Ce type de commutateur virtuel n’est pas lié à la carte réseau physique de l’hyperviseur.
Voici un schéma qui permet de représenter les flux possibles dans un commutateur virtuel de type
interne :
Cas d’utilisation : isolement des machines virtuelles du réseau extérieur / LAB

Pour créer un commutateur virtuel interne, sélectionnez Interne puis cliquez sur Créer le
commutateur virtuel.

Nommez le commutateur et cliquez sur Appliquer puis OK :

Remarquez qu’il est possible d’activer l’identification de VLAN (Virtual Local Area Network) si
l’hyperviseur Hyper-V se trouve dans un VLAN particulier, afin de permettre la communication entre les
machines virtuelles qui sont attachées à ce commutateur virtuel interne. La carte réseau physique devra
permettre la gestion des VLANs.

La création d’un commutateur virtuel de type interne en PowerShell peut se faire avec la commande
suivante :

New-VMSwitch -Name "Interne2" -SwitchType Internal

12
LP ISVD Virtualisation des systèmes 2017-2018

Vérification des commutateurs de type interne créés avec la commande suivante :

Get-VMSwitch

À ce stade, nous avons quatre commutateurs virtuels créés :

- Deux de type privé


- Deux de type interne

Les commutateurs de type "externe" permettent aux machines virtuelles de communiquer entre elles,
avec l’hyperviseur qui les héberge ainsi que des éléments externes dans le réseau de l’entreprise tel que
les serveurs de fichiers, les contrôleurs de domaines, Internet, etc.
Ce type de réseau est basé sur la carte réseau physique de l’hyperviseur, c’est pour cette raison, qu’il
offre la possibilité aux machines virtuelles de communiquer avec des éléments extérieurs.

Pour créer un commutateur virtuel Externe, les actions sont similaires à la création des commutateurs
virtuels de type interne ou privé, sauf qu’ici, il faudra choisir la carte réseau sur laquelle le commutateur
virtuel sera pointé.
Avant de commencer la création, il est recommandé de bien identifier la carte réseau qui sera attachée à
ce commutateur virtuel, une fois identifiée, on peut créer le commutateur virtuel.

Ici, nous allons attacher notre commutateur virtuel de type externe à la carte LAN. Pour cela, il suffit de
cliquer droit dessus,

Cliquez ensuite sur Propriété, la fenêtre suivante s’affiche, et remarquez la valeur Connexion en
utilisant. C’est cette valeur qui va nous permettre d’identifier notre carte réseau au moment de la
création du commutateur virtuel de type externe.
Dans notre exemple, la valeur est : Intel(R) 82574L Gigabit Network Connection #6.

Allez dans le gestionnaire de commutateur virtuel, sélectionnez le type Externe et cliquez sur Créer le
commutateur virtuel.

Nommez le commutateur et choisissez la carte réseau qui sera attachée à ce commutateur virtuel. Dans
notre exemple, c’est la carte réseau LAN Intel(R) 82574L Gigabit Network Connection #6, que nous
avons vérifiée précédemment.

Une fois la carte réseau sélectionnée, il faudra configurer deux autres options :

Le partage de la carte réseau avec le système de gestion (l’OS)

En cas d’activation de l’option Autoriser le système d’exploitation de gestion à partager cette


carte réseau, il sera possible d’accéder à l’hyperviseur Hyper-V en passant directement par la carte qui
pointe vers le commutateur virtuel externe.
Si celle-ci n’est pas activée, il faudra utiliser une autre carte réseau spécialement dédiée.

SRIOV: Single Root i/O Virtualization

SRIOV est une technique qui permet d’avoir des gains de performance réseau au niveau des machines
virtuelles, elle permet à chaque machine virtuelle d’accéder à la carte réseau physique de l’hyperviseur
comme si cette dernière était directement attachée à la machine virtuelle. Cela améliore grandement les
performances réseau des machines virtuelles.

Afin de profiter de cette fonctionnalité, il faut remplir plusieurs prérequis :


- Support de SRIOV au niveau de la carte réseau
- Support du SLAT
- Des pilotes et firmwares bien à jour avec les dernières versions
- Support du chipset pour IOMMU (Input/Output Memory Management Unit)

Dans notre cas, nous allons autoriser le système de gestion à partager cette carte réseau, donc nous
accéderons à notre hyperviseur via cette carte directement, et pas d’activation de SRIOV (car notre carte
réseau ne le supporte pas).

Remarquez qu’il est possible d’activer la gestion des VLAN comme dans les commutateurs de type
interne.

Cliquez sur Appliquer puis OK pour terminer l’opération.

13
LP ISVD Virtualisation des systèmes 2017-2018

Nous allons créer ici un commutateur de type externe en PowerShell. Pour cela, il faut d’abord supprimer
le commutateur de type externe créé précédemment en interface graphique.
Pour effacer un commutateur virtuel, il suffit de taper la commande PowerShell suivante :
Remove-VMSwitch -Name Externe -Force

Vérification de la bonne suppression du commutateur externe avec la commande suivante :

Get-VMSwitch

Le commutateur virtuel externe n’est plus présent.

Pour créer un commutateur virtuel de type externe en PowerShell, passer la commande suivante :

New-VMSwitch -Name "Externe2" -AllowManagementOS $true


-NetAdapterName ’LAN’

Le commutateur virtuel de type externe pointe bien vers la carte réseau LAN.

Vérification avec le gestionnaire de commutateur virtuel afin de voir tous les commutateurs créés.

Historiquement Hyper-V dispose des trois types de commutateurs virtuels (privé, interne, externe).
Une des nouveautés dans Hyper-V 2016 est les commutateurs de type NAT. Ce commutateur virtuel va
permettre aux machines virtuelles d’avoir leur propre adressage IP interne, et utilise les mécanismes du
NAT afin de faire communiquer les machines virtuelles connectées dessus avec d’autres éléments
extérieurs tels que d’autres serveurs, etc.

La création et la gestion des commutateurs virtuels de type NAT se font uniquement en PowerShell pour
l’instant.

La création d’un commutateur virtuel de type NAT se fait en trois étapes :


- Création du commutateur virtuel de type « interne ».
- Une fois créé, configuration de la passerelle NAT avec la commande PowerShell New-
NetIPAddress.
- Pour finir, configuration du réseau NAT avec la commande PowerShell New-NetNAT.

Étape 1 : création du commutateur virtuel de type interne

New-VMSwitch -Name "CommutateurNAT" -SwitchType Internal -Verbose

Explication de la commande PowerShell

-Name : le nom du commutateur virtuel NAT ; ce sera également le nom de la carte réseau virtuelle.

-SwitchType : le type de commutateur ; dans ce cas, il est de type interne.

À l’issue de la création du commutateur, une carte réseau est créée au niveau de l’hyperviseur.

Pour la suite, nous avons besoin de l’index de cette interface. Afin de le récupérer, il suffit de lancer la
commande PowerShell suivante : Get-NetAdapter

L’index de l’interface virtuelle « commutateur NAT » est 52.

Étape 2 : configuration de la passerelle NAT

(La passerelle de toutes les machines virtuelles qui seront connectées sur ce commutateur virtuel «
commutateur NAT »)

New-NetIPAddress -IPAddress 192.168.10.1 -PrefixLength 24


-InterfaceIndex 52 -Verbose

Explication de la commande PowerShell

14
LP ISVD Virtualisation des systèmes 2017-2018

-IPaddress : l’adresse IP de la carte réseau et la passerelle des machines virtuelles connectées sur
ce commutateur.

-PrefixLength : le masque de sous-réseau de la passerelle, ici Classique /24 (255.255.255.0).


-InterfaceIndex : correspond à l’index de la carte réseau vEthernet créée automatiquement avec
le commutateur NAT (voir étape 1).

Une fois cette commande PowerShell lancée, il est possible de contrôler son fonctionnement en vérifiant
le paramètres TCP/IP de la carte réseau virtuelle vEthernet (CommutateurNAT).
On peut voir l’IP et le masque de sous-réseau configurés.

Étape 3 : configuration du réseau NAT

Les machines virtuelles connectées sur ce commutateur virtuel auront une adresse IP dans ce réseau
spécifié.
Pour cela, lancez la commande PowerShell suivante :

New-NetNat -Name ReseauNAT -InternalIPInterfaceAddressPrefix


192.168.10.0/24 -Verbose

Explication de la commande PowerShell

-Name : nom du réseau NAT.

-InternalIPInterfaceAddressPrefix : le réseau IP dans lequel les machines virtuelles


connectées au commutateur virtuel de type NAT ont une adresse IP.

À ce stade, le commutateur virtuel de type NAT est créé, sa présence peut se vérifier au niveau du
gestionnaire de commutateur virtuel Hyper-V.

On remarque la présence du commutateur virtuel CommutateurNAT. On peut le voir également au


niveau des clés de registre.

Il est possible également de vérifier sa présence avec la commande Get-VMSwitch.

Configuration du commutateur virtuel de type NAT

Une fois créé, on verra également apparaître une carte réseau virtuelle avec une adresse IP
(192.168.10.1) dans le réseau fixé au moment de la création du commutateur virtuel.
Les machines virtuelles connectées à ce commutateur devront avoir comme passerelle par défaut
l’adresse IP de cette carte réseau NAT, autrement dit : 192.168.10.1 si vous êtes en configuration
manuelle.
Il est possible également de distribuer ces adresses IP directement via un serveur DHCP, on peut utiliser
DHCP Server for Windows.
DHCP Server for Windows va se baser sur le réseau NAT créé sur le commutateur NAT virtuel et
distribuer des adresses IP de manière automatique aux machines virtuelles qui sont connectées au
commutateur virtuel de type NAT.

Une fois téléchargé, il faut extraire le fichier dhcpv2.5.2.

Cliquez ensuite sur dhcpwiz.exe afin de lancer l’assistant d’installation du DHCP Server for Windows.

Cliquez sur Suivant.

Choisissez l’interface qui a été créée avec le commutateur virtuel NAT.

Il est possible ici de configurer d’autres protocoles tels que http, TFTP, ainsi qu’un redirecteur DNS.

L’étape suivante est la configuration du pool DHCP. Par exemple dans notre cas, le serveur DHCP
distribuera des adresses IP aux machines virtuelles de 192.168.10.10 jusqu’à 192.168.10.40.

Dans les options avancées, il faut spécifier la passerelle par défaut et le serveur DNS que le DHCP
distribuera en même temps que les adresses IP.

Le serveur peut être configuré comme un service Windows, si c’est le cas, il est nécessaire de configurer
les règles du firewall afin d’autoriser les flux du DHCP Server.

15
LP ISVD Virtualisation des systèmes 2017-2018

Création des règles NAT

Il est possible de créer des règles de redirection NAT avec le commutateur virtuel de type NAT. Nous
avons par exemple, un serveur web avec une adresse IP statique : 192.168.10.80.
Cette règle fera en sorte de rediriger le trafic sur le port 80 avec le protocole TCP d’Hyper-V
à la machine virtuelle qui est connectée sur le commutateur virtuel de type NAT qui a pour adresse IP
192.168.10.80.

Add-NetNatStaticMapping CommutateurNAT -Protocol tcp -ExternalPort 80 -


InternalIPAddress 192.168.10.80 -InternalPort 80 -ExternalIPAddress 0.0.0.0

Paramétrage des commutateurs virtuels

Les extensions
Ceci est valable pour tous les types de commutateurs virtuels (privé, interne, externe).
En cliquant sur le symbole + à gauche du nom d’un commutateur virtuel, il apparaît un sous-menu au
nom d’Extension.

Il est possible d’ajouter des extensions aux commutateurs virtuels sur Hyper-V afin de l’améliorer et lui
permettre d’avoir des fonctionnalités avancées d’un vrai commutateur physique tel que la capture du
trafic réseau ou encore le filtrage des paquets.

Sur Hyper-V 2016, il y a trois extensions de commutateur disponibles :

- Plateforme de filtrage Microsoft Windows (Windows Filtering Platform WFP): permet le filtrage,
l’inspection et la surveillance des paquets réseau.
- Windows Azure VFP Switch Extension : Windows Server 2016 / Hyper-V 2016 est connu pour le
SDN (Software Defined Network) ; cette extension permet l’agilité, la flexibilité hybride en
appliquant une politique réseau dans le commutateur virtuel d’Hyper-V à l’aide de la passerelle
VFP (Virtual Filtering Platform), ce qui permet de gérer le réseau via un contrôleur de manière
centralisée.
- Capture NDIS Microsoft : permet de faire des captures du trafic réseau grâce à l’activation du
pilote de capture NDIS (Network Driver Interface specification).

Les plages d’adresses MAC

Dans cette section, il est possible de définir une plage d’adresse MAC, ces adresses MAC sont distribuées
de manière automatique aux cartes réseau des machines virtuelles.

Les commutateurs virtuels au niveau des clés de registres

Il est possible d’identifier les commutateurs virtuels créés au niveau des clés de registre de Windows
Server avec le chemin suivant :
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\VMSMP\parameters\SwitchList.

6. Création et gestion des machines virtuelles


À chaque nouvelle version d’Hyper-V, il y a une version différente de machine virtuelle.
Sous Windows Server 2016 et Hyper-V 2016, la version de machine virtuelle est 8.0.
Afin de récupérer la version de machine virtuelle, il suffit de taper la commande suivante :

Get-VM * |Format-Table Name, Version

Il est possible de migrer une machine virtuelle sous 2012 R2 en version 5 sur un Hyperviseur Hyper-V
sous Windows Server 2016, par contre la version de la machine virtuelle sera toujours à 5.0. Il faudra
donc effectuer la montée de version manuellement avec la commande suivante.

Update-VmConfigurationVersion (Nom de la machine virtuelle)

En revanche, une fois passé à la version 8, il n’est plus possible de revenir en arrière.

Génération de machine virtuelle

16
LP ISVD Virtualisation des systèmes 2017-2018

Avec l’arrivée d’Hyper-V 2012 R2, nous avons eu comme nouveauté deux types de génération de
machine virtuelle, génération 1 et génération 2.
La génération de machine virtuelle est un critère qui va déterminer le type de machine virtuelle et
surtout le matériel utilisé.
Machine virtuelle de génération 1

Cette génération de machine virtuelle propose le même type et matériel que les précédentes versions
d’Hyper-V.

Machine virtuelle de génération 2

Cette génération de machine virtuelle apporte plusieurs nouveautés aux machines virtuelles :
- Démarrage à partir d’un disque dur virtuel avec un contrôleur SCSI
- UEFI
- Secure boot
- Démarrage PXE
- Démarrage à partir d’un DVD virtuel en SCSI
- Machine virtuelle allégée : pas de port COM ni de disquette

Il est intéressant de voir que les machines virtuelles de génération 2 sont plus allégées et offrent
plusieurs avantages par rapport aux machines virtuelles de génération 1 :
- Démarrage plus rapide
- Déploiement plus rapide
- Les pilotes de la machine virtuelle sont synthétiques

Création des machines virtuelles

Nous allons voir les différentes méthodes de création des machines virtuelles :
- En interface graphique
- En PowerShell

Création des machines virtuelles en interface graphique

Afin de créer une machine virtuelle en interface graphique, il suffit de suivre les étapes suivantes grâce à
l’aide de l’assistant Hyper-V :

- Nom de la machine
- Emplacement des fichiers de la machine virtuelle
- Génération : 1 ou 2
- Quantité de mémoire RAM
- Connexion réseau (commutateur virtuel)
- Création d’un disque dur virtuel et choix de son emplacement
- Choix d’installation (système d’exploitation)
- Vérification des actions et validation

Ces opérations peuvent être réalisées sur le serveur Hyper-V VH01 et VH02.

Ouvrez le gestionnaire Hyper-V et cliquez sur Nouveau puis Ordinateur virtuel.

Un assistant s’ouvre afin de vous guider dans la création de machines virtuelles sur l’hôte Hyper-V.
Cliquez sur Suivant.

Choisissez le nom de la machine virtuelle et l’emplacement des fichiers de configuration de celle-ci.

Choisissez la génération de la machine virtuelle :


- Génération 1
- Génération 2

Attention, comme le dit l’assistant, une fois la machine virtuelle créée, il est impossible de modifier sa
génération.

Spécifiez la quantité de mémoire ainsi que l’utilisation de la mémoire dynamique.

Configuration réseau : choisissez le commutateur sur lequel la machine virtuelle sera connectée.

17
LP ISVD Virtualisation des systèmes 2017-2018

La prochaine étape consiste à nommer le disque dur virtuel (VHDx) de la machine virtuelle, à spécifier sa
taille, et à choisir son emplacement.

Vient ensuite l’option d’installation : soit vous choisissez d’installer un système d’exploitation
ultérieurement soit directement. Il faudra alors sélectionner le deuxième bouton et indiquer le chemin de
l’image ISO.
Il est possible de sélectionner le troisième bouton qui permettra de faire une installation par le réseau
directement (votre machine virtuelle devra être connectée au bon commutateur virtuel pour qu’elle
puisse recevoir les bons paramètres TCP/IP afin de contacter le serveur PXE).

Il est nécessaire de bien vérifier les paramètres choisis avant de lancer la création de machines
virtuelles. Il est possible de revenir en arrière avec le bouton Précédent et de corriger ou modifier
certains paramètres si vous le souhaitez.

Cliquez sur Terminer afin de lancer la création de la machine virtuelle.

Création de machines virtuelles en PowerShell

Le script suivant permet de créer une machine virtuelle (VM02) de manière rapide :

$VMname ="VM02"
$RAM = 512MB
$vSW = "CommutateurNAT"

New-VM -Name $VMname -MemoryStartupBytes $RAM -NewVHDPath


"C:\vms\VM02\VM02.vhdx" -NewVHDSizeBytes 20GB -SwitchName $vSW
-BootDevice CD

Une fois les machines virtuelles créées, il est important de voir les opérations quotidiennes que les
administrateurs sont amenés à faire tous les jours, cela va du renommage jusqu’à la suppression de
machine virtuelle en passant par le déplacement de ces dernières.

Gestion et administration des machines virtuelles avec Gestionnaire Hyper-V

Sur une machine virtuelle, il est possible de faire plusieurs opérations d’administration. Un clic droit sur
une machine virtuelle permet de voir la liste des opérations possibles.

Voici la liste des opérations possibles sur une machine virtuelle :


- Se connecter : permet de se connecter sur la machine virtuelle afin d’installer le système
d’exploitation par exemple et de pouvoir administrer le système d’exploitation installé sur la
machine virtuelle. En général, on utilise cette opération Se connecter sur la machine virtuelle
directement quand il y a un problème réseau qui empêche la connexion à la machine virtuelle.
La connexion aux machines virtuelles se fait à distance via le protocole RDP classique.
- Paramètres : permet d’accéder aux paramètres de la machine virtuelle afin de configurer les
disques durs virtuels, les cartes réseau, ajuster la mémoire, etc.
- Éteindre : cette opération éteint directement la machine virtuelle, c’est similaire à un arrêt
électrique sur un serveur physique.
- Arrêter : contrairement à l’opération Éteindre, cette opération envoie un signal d’extinction à
la machine virtuelle afin que celle-ci puisse s’éteindre de manière propre et non brutalement.
- Enregistrer : cette opération va sauvegarder en mémoire l’état de la machine virtuelle à un
instant T, la machine virtuelle ne sera pas arrêtée, elle sera figée jusqu’à au moment où l’on
décide de lui faire reprendre son état normal.
- Suspendre : cette opération permet d’interrompre l’interaction entre la machine virtuelle et
l’hôte de virtualisation. La machine virtuelle est également figée et suspendue.
- Réinitialiser : cette opération permet de faire une réinitialisation complète de la machine
virtuelle ; ce qui provoquera un redémarrage de celle-ci.
- Point de contrôle : permet de prendre et d’enregistrer l’état d’une machine virtuelle
(application et configuration matérielle). En faisant un point de contrôle, c’est la mémoire de la
machine virtuelle qui est sauvegardée, ce qui permet de revenir à un état antérieur dans un
environnement d’intégration par exemple.
- Déplacer : cette opération permet soit de déplacer la machine virtuelle d’un hôte A vers un hôte
B, soit de déplacer le stockage de la machine virtuelle et les fichiers de configuration d’un
emplacement A vers un emplacement B.
- Renommer : permet le renommage de la machine virtuelle.
- Activation de la réplication : permet d’activer la réplication de la machine virtuelle afin que
celle-ci puisse être répliquée sur un autre hyperviseur au sein d’un autre datacenter qui se
trouve par exemple dans une zone géographique différente dans le but de réaliser un PRA.

18
LP ISVD Virtualisation des systèmes 2017-2018

Gestion et administration des machines avec PowerShell


Toutes ces opérations via le Gestionnaire Hyper-V sont faisables en PowerShell. Cela permettra de
faciliter la gestion et surtout d’optimiser et automatiser les déploiements des machines virtuelles.
En installant Hyper-V, il y a un module PowerShell qui s’installe également. Ce module PowerShell offre
plusieurs commandes pour la gestion d’Hyper-V et des machines virtuelles.
Il est possible d’afficher le module PowerShell d’Hyper-V avec la commande suivante :

Get-Module Hyper-V

Il est possible d’avoir toutes les commandes possibles pour gérer et administrer Hyper-V et les machines
virtuelles :

Get-Command -Module Hyper-V

L’administration des machines virtuelles par groupe

Une des nouveautés qui sera appréciée dans Hyper-V est la notion d’administration des machines
virtuelles avec des groupes, ceci va permettre de faciliter l’administration des machines virtuelles au
quotidien.
Ce groupe va permettre l’organisation des machines virtuelles telles que des objets afin d’avoir une
infrastructure virtuelle structurée et surtout simple à administrer et à dépanner en cas de besoin.

La création, le paramétrage et la gestion de ce groupe se font en PowerShell avec le module Hyper-V.

Les groupes des machines virtuelles

Dans cette notion de groupe, il existe deux groupes :

Le groupe VM collections : c’est un groupe logique qui va regrouper des machines virtuelles qui sont
présentes au sein de l’hyperviseur Hyper-V, ceci permettra de faire des tâches d’administration sur ce
dernier, et donc faciliter les tâches au quotidien et de gagner du temps.

Le groupe Management collections : c’est un groupe logique aussi qui va regrouper le ou les groupes
VM collections pour une administration plus simplifiée.
Lors de la création d’un groupe en Powershell, afin de différencier les deux groupes, il existe un
paramètre (-GroupType) avec deux valeurs possibles :
- VMCollectionType : pour un groupe de VM collections.
- ManagementCollectionType : pour les groupes de Management collections.

Création d’un groupe VM collections

La création d’un groupe VM collections se fait avec la cmdlet suivante :


New-VMGroup

Création du groupe VM collection "GRMGT" avec la commande suivante :


New-VMGroup -Name "GRMGT" -GroupType VMCollectionType

Une fois le groupe GRMGT créé, il est possible de vérifier sa création avec la commande suivante :
Get-VMGroup

Ensuite, il suffit de créer les variables pour les machines virtuelles et le groupe qu’on vient de créer.
Les machines virtuelles VM01 et VM02 ont été choisies pour être placées dans le groupe GRMGT.

Pour les machines virtuelles :


$VM01 = Get-VM -Name VM01
$VM02 = Get-VM -Name VM02

Pour le groupe :
$GRP = Get-VMGroup -Name GRMGT

Une fois les variables créées, il faut ajouter les machines virtuelles VM01 et VM02 au groupe :
Add-VMGroupMember -VMGroup $GRP -VM $VM01
Add-VMGroupMember -VMGroup $GRP -VM $VM02

19
LP ISVD Virtualisation des systèmes 2017-2018

Consultez le résultat avec la commande suivante : Get-VMgroup. On s’aperçoit que les deux machines
virtuelles VM01 et VM02 sont membres du groupe GRMGT au niveau du VMGroupMembers.

À ce stade, il est possible de faire des opérations sur le groupe GRMGT directement. Ceci va toucher les
deux machines virtuelles VM01 et VM02, les autres machines virtuelles sont isolées de manière logique.
Ajoutez la machine virtuelle VM03 au groupe GRMGT :
Add-VMGroupMember -VMGroup $GRP -VM $VM03

Il est possible également de créer un deuxième groupe de collections et d’y mettre la machine virtuelle
VM04.

Lancez le script suivant :


New-VMGroup -Name GRMGT2 -GroupType VMCollectionType
$VM04 = Get-VM -Name VM04
$GRP2 = Get-VMGroup -Name GRMGT2
Add-VMGroupMember -VMGroup $GRP2 -VM $VM04

Vérifiez, on aperçoit le nouveau groupe GRMGT2 avec la machine virtuelle VM04 qui fait partie de ce
Dernier.

Il est possible de vérifier également au niveau des machines virtuelles avec la commande suivante :
Get-VM | ft Name, state, groups

Création d’un groupe Management collections


La création d’un groupe de management de collection consiste à créer un groupe qui va gérer les
groupes VM collections.

Au niveau de la création, il suffit de suivre les instructions suivantes :


Créez un groupe Management collections :
New-VMGroup -Name GM -GroupType ManagementCollectionType

Une fois créé, vérifiez la création du groupe avec la commande suivante :


Get-VMGroup

On constate la présence du groupe GM avec le type ManagementCollectiontype qui signifie que


c’est un groupe de management de collection.

Créez une variable qui va récupérer le nom du groupe et affectez les deux groupes VM collections au
groupe de management de collection GM :

$GM = Get-VMGroup -Name GM


$GRP = Get-VMGroup -Name GRMGT
$GRP2 = Get-VMGroup -Name GRMGT2
Add-VMGroupMember -VMGroup $GM -VMGroupMember $GRP
Add-VMGroupMember -VMGroup $GM -VMGroupMember $GRP2

Bien sûr, il faut que les groupes GRMGT et GRMGT2 existent et soient surtout placés en variables afin de
pouvoir les ajouter comme membres au groupe de management de collection GM.

Vérifiez : avec la commande PowerShell Get-VMGroup, on constate la présence du groupe GM, avec
comme membre le groupe VM collections GRMGT et GRMGT2.

Exporter une machine virtuelle

Hyper-V offre la possibilité d’exporter les machines virtuelles afin de les importer plus tard dans un autre
hyperviseur ou alors faire une sauvegarde (moyen de sauvegarde manuel certes, mais il peut s’avérer
utile parfois).

Scénario d’exportation de machines virtuelles :

- Migration d’un Hyper-V sous 2012 R2 vers un Hyper-V 2016 : il est possible d’exporter la
machine virtuelle et de l’importer dans le nouvel Hyper-V 2016. Il faudra par contre faire la
montée de version de la machine virtuelle manuellement.
- Migration de serveur classique autonome : il est possible d’exporter les machines virtuelles et les
conserver dans un espace de stockage. Une fois le serveur Hyper-V migré, vous pourrez par la
suite importer les machines virtuelles.

20
LP ISVD Virtualisation des systèmes 2017-2018

Lorsqu’une exportation est réalisée, le système exporte tous les fichiers de la machine virtuelle, à savoir,
les fichiers de configuration, le ou les disques virtuels, les snapshots si la machine virtuelle en dispose.
Exporter une machine virtuelle en interface graphique

Cette opération est à faire sur le Serveur Hyper-V VH01.

Pour exporter une machine virtuelle, ouvrez le Gestionnaire Hyper-V, et cliquez droit sur une machine
virtuelle. Ensuite, cliquez sur Exporter.

Choisissez ensuite l’emplacement dans lequel la machine virtuelle sera exportée.

Ici, la machine virtuelle VM01 sera exportée dans le dossier E:\Export.

Cliquez ensuite sur Exporter.

Une fois terminé, l’ouverture du dossier E:\Export permet de vérifier si la machine virtuelle a été bien
exportée.

On peut constater ici que la machine virtuelle a été bien exportée, on retrouve comme mentionné plus
haut les fichiers suivants :

- Les snapshots
- Le disque dur virtuel de la machine virtuelle (.VHDx)
- Les fichiers de configuration

Exporter une machine virtuelle en PowerShell

Il est possible de faire la même opération en PowerShell avec la commande suivante :


export-VM -Name VM01 -Path E:\export\ExportPS

Importer une machine virtuelle


Cette opération est à faire sur le serveur Hyper-V VH02.

Une fois la machine virtuelle exportée, il faut l’importer, par exemple dans un autre hyperviseur (ici le
VH02).
Commencez par copier le dossier de la machine virtuelle exportée VM01 vers le serveur VH02.

Vous pouvez également le mettre à disposition dans un partage réseau, dans notre cas, nous avons
placé le dossier dans C:\Temp au niveau de l’hyperviseur VH02.

Ensuite, dans le Gestionnaire Hyper-V, cliquez sur Importer un ordinateur virtuel.

L’assistant d’importation va s’ouvrir, il suffit de cliquer sur Suivant pour commencer.

Indiquez le dossier de la machine virtuelle exportée et cliquez sur Suivant.

Hyper-V reconnaît que la machine virtuelle dans le dossier est bien la VM01 et indique également sa date
de création.

Choisissez ici le type d’importation (comme pour Hyper-V 2012 R2) :


- Inscrire l’ordinateur virtuel sur place (utiliser l’ID unique existant) : ici, Hyper-V va
enregistrer la machine virtuelle dans son inventaire, l’ID de la machine sera gardée.
- Restaurer l’ordinateur virtuel (utiliser l’ID unique existant) : permet d’importer une
machine virtuelle dans l’emplacement souhaité, ainsi, la machine virtuelle gardera son ID
également.
- Copier l’ordinateur virtuel (créer un ID unique) : ceci permet de créer un nouvel ID pour la
machine virtuelle qui a été exportée. Nous allons choisir cette option. Cliquez sur Suivant.

Vient ensuite le choix de l’emplacement des fichiers de la machine virtuelle, il suffit de spécifier le choix
souhaité en cochant la case Stocker l’ordinateur virtuel dans un autre emplacement.

Si cette case n’est pas cochée, les fichiers de la machine virtuelle seront stockés en fonction de la
configuration de stockage d’Hyper-V.

Spécification de l’emplacement du disque dur virtuel (VHDx) de la machine virtuelle.

21
LP ISVD Virtualisation des systèmes 2017-2018

Connexion au commutateur virtuel de la machine, dans notre cas VH02 n’a pas encore de commutateur
défini, donc la machine virtuelle ne sera pas connectée au réseau, il est possible bien entendu de choisir
le commutateur virtuel que vous souhaitez à condition qu’il soit créé en amont sur votre serveur Hyper-
V.

Vérifiez les actions et paramètres choisis pour l’importation. Cliquez ensuite sur Terminer afin de
commencer l’importation de la machine virtuelle.

L’importation de la machine virtuelle commence.

À ce stade, la machine virtuelle est importée. Il est possible de la démarrer en faisant un clic droit
Démarrer.

Paramètres des machines virtuelles

Une machine virtuelle dispose de plusieurs paramètres, ces paramètres sont liés bien entendu à
l’hyperviseur sur lequel elle est hébergée.

Ces paramètres peuvent être classés en deux catégories :


- Paramètres matériels
- Paramètres de gestion

Paramètres matériels
Afin de se rendre dans les paramètres d’une machine virtuelle, faites un clic droit sur celle-ci et cliquez
sur Paramètres.

La fenêtre de paramètres de la machine virtuelle apparaît.

Certains paramètres ne peuvent être configurés que si la machine virtuelle est hors tension (éteinte).
Cependant, il y a des paramètres modifiables à chaud, c’est-à-dire durant l’exécution de la machine
virtuelle.

Ajout de matériel

Comme son nom l’indique, cette section permet d’ajouter des éléments matériels à la machine virtuelle
tels que :

- Contrôleur iSCSI : réalisable à froid


- Carte réseau : réalisable à chaud
- Carte vidéo 3D RemoteFX : réalisable à froid
- Adaptateur Fibre Channel : réalisable à froid

Microprogramme

Cette partie permet la configuration de l’ordre de démarrage au niveau de la machine virtuelle.


Bien entendu, si la première condition n’est pas remplie, le boot passera au périphérique suivant, c’est à
dire le disque dur virtuel (là où se trouve le système d’exploitation de la machine virtuelle).

Les machines virtuelles de génération 2 ont la possibilité de démarrer directement via PXE,
contrairement aux machines virtuelles de génération 1.

Sécurité
Cette section permet de configurer le démarrage sécurisé (Secure Boot) de la machine virtuelle, avec
l’activation ou non de la TPM pour plus de sécurité.

Les machines virtuelles en UEFI vont utiliser une clé publique qui va permettre de gérer le Secure Boot
(démarrage sécurisé).
Ce mode est valable pour les machines virtuelles de génération 2 Windows et Linux.
Au niveau des machines virtuelles Linux, l’exécution de la commande suivante permet d’activer le Secure
Boot :

Set-VMFirmware -VMName VMLinux -SecureBootTemplate


MicrosoftUEFICertificateAuthority

La configuration du Secure Boot se fait uniquement à froid (machine virtuelle éteinte).

22
LP ISVD Virtualisation des systèmes 2017-2018

Mémoire
Cette section permet le paramétrage de la mémoire vive des machines virtuelles.
Une machine virtuelle peut avoir de la mémoire statique, ou alors de la mémoire dynamique, remarquez
que l’activation de la mémoire dynamique ne peut pas se faire à chaud, la machine virtuelle doit être
éteinte.
Si la mémoire de la machine virtuelle (Génération 1 ou 2) est configurée de manière statique, il est
possible avec Hyper-V 2016 d’ajouter ou d’ajuster cette quantité de RAM à chaud (durant l’exécution de
la machine virtuelle).

La mémoire dynamique

La mémoire dynamique est un concept qui permet d’allouer de la mémoire vive à une machine virtuelle
de manière dynamique en fonction de ses besoins. Cette allocation de mémoire dynamique ne dépassera
pas la taille de mémoire maximale fixée dans la configuration.
Ceci permet à l’hyperviseur de mieux gérer sa mémoire et d’attribuer aux machines virtuelles de la
mémoire en fonction des besoins, et donc de gagner en performances.

Fonctionnement de la mémoire dynamique sous HyperV

Dans notre cas, nous disposons d’un serveur Hyper-V VH02 avec 16 Go de RAM, avec une machine
virtuelle configurée avec la mémoire dynamique.
Cette machine virtuelle dispose de 2 Go de RAM minimale et 6 Go de RAM maximale (ces paramètres
sont à configurer au niveau de la machine virtuelle en question).
À cet instant T1, la machine virtuelle n’a pas besoin de mémoire supplémentaire.

Au bout d’un moment, la machine virtuelle est plus sollicitée par les utilisateurs, et donc celle-ci a besoin
de plus de mémoire afin de fonctionner de manière optimale. C’est là qu’entre en jeu le pilote DMVSC qui
va être en interaction avec l’hyperviseur pour l’allocation supplémentaire de mémoire à la machine
virtuelle.
Cette allocation supplémentaire de mémoire est faite de manière dynamique (d’où le nom de mémoire
dynamique), c’est-à-dire que l’hyperviseur va fournir la quantité de mémoire dont la machine virtuelle a
besoin afin de répondre au besoin des utilisateurs en termes de performances.
L’ajustement de la mémoire est fait à chaud, ce qui ne provoquera pas d’interruption de service.
Dans notre cas, la machine virtuelle a eu besoin de 2 Go de RAM supplémentaires afin de fonctionner
dans les conditions idéales.

Le point fort de mécanisme arrive au moment où la machine virtuelle est moins sollicitée, l’hyperviseur
va lui retirer la mémoire qu’il lui a allouée auparavant (les deux Go supplémentaires) afin d’optimiser son
espace mémoire et libérer cette mémoire pour d’autres machines virtuelles qui pourraient en avoir
besoin.
Une technique a été mise au point pour faire cela, le ballooning, cette technique consiste à faire croire à
la machine virtuelle que la mémoire qu’elle possédait avant n’est plus disponible, ce qui provoque
l’abandon de cette partie de la mémoire.

Ce mécanisme gère vraiment la mémoire de manière dynamique et surtout, il cherche à optimiser


l’allocation de mémoire en fonction des besoins des machines virtuelles.

Au niveau de la configuration, plusieurs champs sont à renseigner :


- RAM de démarrage : c’est la quantité de mémoire que l’hyperviseur va allouer à la machine
virtuelle au moment de son démarrage.
- Mémoire minimale : pour la mémoire dynamique, ceci est la mémoire minimale qu’aura la
machine virtuelle (cette quantité de mémoire doit toujours être disponible afin que la machine
virtuelle puisse fonctionner de manière optimale).
- Mémoire maximale : pour la mémoire dynamique, ceci est la mémoire maximale que la
machine virtuelle pourra atteindre.
- Mémoire tampon : la mémoire tampon est là afin d’optimiser l’allocation de mémoire aux
machines virtuelles qui consomment une forte quantité de mémoire. Plus la machine virtuelle
connaît des pics importants de sollicitation mémoire, plus cette valeur doit être importante.
Cette configuration est à faire en fonction des machines virtuelles et leur charge de travail. Par
contre pour les machines virtuelles qui demandent plus souvent de la mémoire, la valeur de
mémoire tampon doit être basse afin de bien optimiser la gestion de la mémoire au niveau de
l’hyperviseur.
- Poids de la mémoire : ce paramètre permet de gérer la priorité d’allocation de mémoire d’une
machine virtuelle par rapport à une autre machine virtuelle, bien entendu, plus cette valeur est
haute pour une machine virtuelle, plus Hyper-V va privilégier l’allocation de mémoire pour cette
dernière.

23
LP ISVD Virtualisation des systèmes 2017-2018

Il est très important de bien configurer la mémoire de vos machines virtuelles, pour cela, il est
indispensable de connaître leur quantité de mémoire et leur charge de travail pour faire une
configuration la plus optimisée possible ce qui évitera une perte de performance.

Processeur

Cette section permet de configurer les processeurs virtuels, il est possible d’ajouter des processeurs
supplémentaires à la machine virtuelle pour le gain de performance. Bien entendu, l’ajout des vCPU est
en fonction du processeur physique de l’hôte de virtualisation.
Il est possible également de contrôler les ressources CPU de la machine virtuelle afin de répartir ces
ressources entre les différentes machines virtuelles qui sont hébergées sur l’hôte de virtualisation.

La machine doit être éteinte afin d’ajouter des vCPU supplémentaires.

Il est possible de cliquer sur le petit + à côté de la section Processeur afin d’afficher d’autres
paramètres supplémentaires qui sont la compatibilité et l’architecture NUMA.
Le paramètre Compatibilité du processeur permet une meilleure gestion de la compatibilité des
machines virtuelles lors d’une migration entre deux hyperviseurs qui n’ont pas la même version de
processeur.

Ensuite se trouve la configuration de NUMA (NonUniform Memory Access).

La machine virtuelle doit être éteinte afin de pouvoir configurer NUMA.

NUMA est une architecture qui permet d’avoir des accès à la mémoire en créant des partitions (nœuds
NUMA) au niveau de la mémoire physique afin que chaque cœur CPU puisse disposer de sa partie
mémoire.
Lors de la création de nœuds NUMA, il y a ce qu’on appelle la mémoire locale qui est du point de vue du
processeur une mémoire locale car ces deux éléments sont dans le même nœud.
En revanche, depuis ce même processeur, une mémoire qui se trouve dans un autre noeud est appelée
mémoire distante.
L’accès le plus rapide à la mémoire est la mémoire locale, en revanche, les processeurs peuvent
également accéder à la mémoire qui se trouve dans un autre nœud NUMA, ceci baisse les performances
de la machine virtuelle. Il est donc judicieux de configurer une machine virtuelle de manière qu’elle
puisse utiliser les ressources mémoires d’un seul et unique nœud NUMA.

Fonctionnement NUMA avec les machines virtuelles Hyper-V avec le fractionnement NUMA

Hyper-V alloue la mémoire à une machine virtuelle au démarrage à partir d’un noeud NUMA physique, s’il
n’y a pas assez de mémoire sur le noeud NUMA, Hyper-V va allouer de la mémoire à la machine virtuelle
depuis un autre nœud NUMA physique. Le fractionnement NUMA est activé par défaut sur Hyper-V 2016.

Configuration de NUMA sur Hyper-V

La configuration de NUMA faite au niveau de l’hyperviseur (dans les paramètres d’Hyper-V) affecte toutes
les machines virtuelles qui sont lancées dans ce dernier. Cette configuration va faire de l’optimisation
mémoire entre les nœuds NUMA physiques et virtuels.

Il est possible également de configurer NUMA sur chaque machine virtuelle, de spécifier le nombre de
maximal de processeurs ainsi que la quantité maximale de mémoire pour chaque nœud NUMA.

Attention à la configuration NUMA qui peut être différente d’un hôte à l’autre lors d’une migration de
machine virtuelle.

Contrôleur IDE pour les machines virtuelles de génération 1

Sur une machine virtuelle de génération 1, le contrôleur IDE est présent et peut être configuré afin
d’ajouter un disque dur virtuel (VHD / VHDx) ou encore un lecteur DVD afin de permettre à la machine
virtuelle le boot sur un ISO.

Il est impossible pour une machine virtuelle de génération 1 d’avoir un disque dur virtuel avec un
contrôleur SCSI pour le démarrage du système d’exploitation. Il est obligatoire d’avoir un disque dur
virtuel de boot sous un contrôleur IDE, en revanche, il est possible d’ajouter des disques durs virtuels
sous un contrôleur SCSI pour les données.

Contrôleur iSCSI

24
LP ISVD Virtualisation des systèmes 2017-2018

Avec les machines virtuelles de génération 2, il est possible désormais d’avoir un disque dur de boot sous
un contrôleur SCSI. Bien sûr il est possible d’ajouter plusieurs disques durs virtuels supplémentaires en
SCSI sur la machine virtuelle.
Rappel : ces contrôleurs IDE ne sont plus disponibles pour les machines virtuelles de génération 2.

Carte réseau

Dans Hyper-V 2016, il est possible d’ajouter une carte réseau à chaud, il n’est pas nécessaire d’éteindre
la machine virtuelle pour lui ajouter une carte réseau.
Plusieurs paramètres sont disponibles pour les cartes réseau au niveau des machines virtuelles.
Il est possible de spécifier et de connecter une carte réseau à un commutateur virtuel, de plus, Hyper-V
permet également la prise en compte des VLANs avec le tag de l’ID du VLAN.
Au niveau de l’optimisation, on peut activer la gestion de bande passante afin de limiter et de contrôler la
bande passante en fonction des machines virtuelles dans le but de faire le maximum de gain et de ne pas
saturer le réseau.

En cliquant sur le + à gauche de la section Carte réseau, plusieurs paramétrages avancés sont
disponibles au niveau de la carte réseau :

- Accélération matérielle
- Fonctionnalités avancées

Au niveau des accélérations matérielles, on retrouve les paramètres suivants :

Activer la file d’attente d’ordinateurs virtuels : cette partie permet l’activation du VMQ. Le VMQ est
une technologie similaire au RSS mais celle-ci est faite pour les machines virtuelles et la virtualisation.

Activer le déchargement de tâche IPsec : afin de ne pas altérer les performances des machines
virtuelles avec des algorithmes de chiffrement lourds qui demandent beaucoup de ressources, Hyper-V
permet sur ses commutateurs virtuels l’utilisation du déchargement de tâche IPsec, qui améliore
grandement les performances de la machine virtuelle.

Le VMQ permet l’optimisation des flux réseau au niveau des cartes réseau virtuelles des machines
virtuelles. VMQ associe une interface virtuelle à une file d’attente. Cette file d’attente est également liée
à un processeur logique, ce qui permet une grande amélioration des performances réseau.

Le VMQ est activé par défaut sur les cartes réseau 10 Gbit. Par contre, sur les cartes réseau 1 Gbit, il
n’est pas activé par défaut.

L’activation du VMQ pose souvent des soucis de performance réseau, tandis que normalement le VMQ est
censé améliorer ces performances. Le souci vient de certains drivers et du support de la technologie au
niveau de la carte réseau.

Afin que VMQ soit activé de manière automatique pour les cartes réseaux 10 Gbit, il faut que celle-ci soit
connectée à un commutateur virtuel.

Activer SRIOV : activation de SRIOV (Single-Root IOV), cette technologie permet de tirer parti des
meilleures performances des cartes réseau au niveau des machines virtuelles. Cela permet aux machines
virtuelles d’accéder aux ressources de la carte réseau physique directement, la machine virtuelle va
penser que la carte physique lui est attribuée directement, et par conséquent, les performances sont
meilleures.

Au niveau des fonctionnalités avancées il est possible d’activer plusieurs paramètres.


Il est nécessaire d’utiliser l’ascenseur pour voir tous les paramètres.

Paramétrage de l’adresse Mac : possibilité de laisser l’adressage MAC en dynamique ou alors la fixer
en statique.

Activation de l’usurpation d’adresse MAC : cette option permet de protéger la machine virtuelle
contre les usurpations d’adresse MAC au niveau des trames sources sortantes.

Protection DHCP : cette option permet de protéger la machine virtuelle des serveurs DHCP qui ne sont
pas autorisés dans le réseau à distribuer des paramètres TCP/IP. Cela évite d’avoir un adressage
distribué par un DHCP frauduleux.

Protection du routeur : protège l’environnement réseau des machines virtuelles qui se font passer
pour des routeurs.

25
LP ISVD Virtualisation des systèmes 2017-2018

Réseau protégé : cette option permet de migrer la machine virtuelle vers un autre noeud en cas de
soucis réseaux, cela permet d’avoir une continuité de service et une tolérance aux pannes.

Mise en miroir de ports : cette option est intéressante pour les dépannages réseau, elle permet de
faire une copie de tout le trafic réseau (entrant et sortant) et le copie vers une autre destination afin
qu’elle puisse être analysée.

Association de cartes réseau : cette option permet d’agréger les cartes réseau virtuelles des machines
virtuelles, ce qui va permettre une haute disponibilité au niveau des cartes réseau.

Affectation de nom de périphérique : cette option permet la prise en charge de la propagation des
noms des cartes réseau sur les machines virtuelles.

Paramètres de gestion

Nom de la machine virtuelle

Dans cette section, il est possible de modifier le nom de la machine virtuelle, et d’ajouter une
description.

Service d’intégration
Les services d’intégration sont envoyés directement via Windows Update sous Hyper-V 2016.

Pour les machines virtuelles Linux, veuillez consulter ce lien :


https://technet.microsoft.com/library/dn531030(ws.12).aspx.

Points de contrôle

Cette section permet de configurer les points de contrôle, il est donc possible de choisir le type de point
de contrôle à appliquer au niveau de la machine virtuelle.
Par défaut, les points de contrôle sont activés sur les machines virtuelles, il est possible de les
désactiver.
Également, le type de point de contrôle par défaut est Points de contrôle de la production, il est
possible de choisir le type standard. C’est l’une des nouveautés d’Hyper-V 2016.
Il est également possible de choisir l’emplacement des points de contrôle.

Emplacement du fichier de pagination intelligente

Cette section permet de choisir l’emplacement des fichiers de pagination.


Il est recommandé par Microsoft de ne pas stocker le fichier de pagination des machines virtuelles sur un
disque système ; toujours le placer sur un disque non système afin d’éviter des erreurs au niveau de
l’hyperviseur et de la machine virtuelle.

Action de démarrage automatique

Cette section permet de configurer les actions à réaliser de manière automatique sur la machine virtuelle
lors du démarrage d’Hyper-V.
Il est possible de choisir le démarrage automatique de la machine virtuelle, ou alors le démarrage
automatique avec un délai de démarrage (en secondes).

Action d’arrêt automatique

Cette section permet de configurer les actions à réaliser de manière automatique sur la machine virtuelle
lors de l’arrêt d’Hyper-V.
Plusieurs choix sont disponibles :
- Mettre en mémoire l’état de l’ordinateur virtuel (la machine virtuelle va garder son état à
un instant T).
- Éteindre l’ordinateur virtuel de manière brusque.
- Arrêter le système d’exploitation invité : cette opération envoie un signal d’extinction à la
machine virtuelle (les services d’intégration doivent être installés afin que le système puisse
envoyer le signal d’extinction au système d’exploitation invité de la machine virtuelle).

26
LP ISVD Virtualisation des systèmes 2017-2018

7. Concept de migration de machine virtuelle


Il est possible de faire migrer une machine virtuelle d’un hôte de virtualisation A vers un hôte de
virtualisation B et inversement.
Hyper-V 2016 propose deux façons de migrer, soit une migration entre serveurs autonomes, autrement
dit non clustérisés (ce que nous allons voir dans cette section), soit la migration entre nœuds Hyper-V au
sein d’un cluster (point qui sera abordé dans le chapitre Hyper-V et la haute disponibilité).
Il est possible de faire du live migration c’est-à-dire migrer une machine virtuelle vers un autre
hyperviseur pendant que celle-ci est en cours d’exécution.
Cela empêche l’interruption de service pour les utilisateurs.
L’intérêt de la migration de machine virtuelle d’un hôte A vers un autre hôte B est la haute disponibilité,
autrement dit, en cas de soucis sur un serveur Hyper-V, il sera possible de migrer la machine virtuelle
sur un autre hôte de virtualisation en attendant de remettre en état l’hyperviseur qui est en panne.
Hyper-V en mode autonome propose deux types de migration :
- Migration de la machine virtuelle vers un autre hyperviseur.
- Migration du stockage de la machine virtuelle vers un autre hyperviseur.

Depuis l’Hyperviseur VH01, il est possible de migrer une machine virtuelle vers l’hyperviseur VH02 à
chaud, c’est à dire que la migration se fera alors que la machine virtuelle est en exécution, donc sans
interruption de services.
La mémoire de la machine virtuelle est copiée via le réseau vers l’hôte de destination.

Bien entendu, lors d’une migration de machine virtuelle, l’hôte qui va recevoir la machine virtuelle a
besoin de ressources et d’une configuration matérielle semblable à l’hôte source, car l’hôte de destination
doit être en mesure d’accueillir la machine virtuelle, donc attention à bien vérifier la quantité de mémoire
vive et la configuration CPU et stockage de l’hôte de virtualisation distant lors d’une migration de
machine virtuelle.

Déplacement des machines virtuelles

Entrons dans le cœur de la migration entre deux Hyper-V (VH01 et VH02) dans un contexte où les deux
serveurs ne sont pas en cluster.

Lors de la migration de machine virtuelle de l’hôte VH01 vers VH02, c’est la mémoire vive de la machine
virtuelle qui est copiée. Celle-ci est compressée par défaut si le réseau de migration à une bande
passante de moins de 10 Gbit, ceci est dans le but d’améliorer la migration et surtout de ne pas saturer
le réseau.

Configuration de la migration dynamique

Afin de pouvoir migrer une machine virtuelle d’un hôte de virtualisation vers un autre hôte de
virtualisation, il faut configurer la prise en charge de la migration dynamique au niveau de l’hyperviseur.

Il faut se rendre directement dans les paramètres d’Hyper-V et activer la migration des machines
virtuelles sur les deux hyperviseurs (VH01 et VH02).

Au niveau du réseau de migration, il est possible de laisser Hyper-V choisir le réseau de migration ou
alors lui fixer un réseau bien spécifique dédié.
Cliquez ensuite sur Appliquer.

Configuration protocoles et performances

Une fois la migration dynamique de machine virtuelle activée, il faut se rendre dans les fonctionnalités
avancées afin de comprendre ce qui se passe.

Par défaut, le nombre de migrations de machine virtuelle simultanées est de 2.

Par défaut, le nombre de migrations de machine virtuelle simultanées est de 2.

- Protocole d’authentification : ceci définit le protocole à utiliser pour l’authentification des


deux hyperviseurs pour réaliser la migration dynamique. Hyper-V propose deux protocoles
d’authentication :

o Credential Security Support Provider : ce protocole est le choix par défaut. Il


permet de déléguer de manière sécurisée les informations d’identification d’un client à
un serveur cible, il utilise un canal chiffré TLS (Transport Layer Security) entre le client
et le serveur. Ce protocole est utilisé par défaut car il est plus facile à mettre en place et

27
LP ISVD Virtualisation des systèmes 2017-2018

ne nécessite pas de configuration supplémentaire. Il a l’avantage d’être facile


d’utilisation mais est moins sécurisé que Kerberos.

o Kerberos : ce protocole d’authentification très connu fonctionne avec un système de


jetons et un mécanisme de clés. Il est basé sur du chiffrement symétrique. En cas de
live migration, il nécessite une configuration supplémentaire qui est la délégation. Ceci
sera vu prochainement dans ce chapitre. Kerberos est à utiliser lorsque les deux
hyperviseurs sont joints à un domaine Active Directory. Il a l’avantage d’être plus
sécurisé que CredSSP. De plus, il permet de transmettre les informations d’identification
de l’administrateur sur plusieurs serveurs si besoin.

- Options de performances : ceci permet de fixer les options à choisir afin d’obtenir les
meilleures performances lors de la migration, plusieurs options sont à choisir en fonction de
l’infrastructure et de la configuration matérielle des hyperviseurs.

o TCP/IP : cette option permet de copier directement le contenu de la mémoire vive de


la machine virtuelle dans le réseau lors de la migration vers l’hyperviseur de destination.

o Compression : choix par défaut dans Hyper-V, cette option va dans un premier temps
compresser la mémoire vive de la machine virtuelle avant de la copier sur le réseau vers
l’hyperviseur de destination.

o SMB : cette option permet la migration de machine virtuelle via une connexion SMB,
cette option permet également l’utilisation de SMB direct si les hyperviseurs disposent
de cartes réseau qui gèrent la fonctionnalité (RDMA), ce qui améliore grandement la
migration de machines virtuelles.

Dans notre cas, nous allons utiliser une authentification Kerberos étant donné que nos deux hyperviseurs
sont joints au domaine ainsi qu’une compression de mémoire lors de la migration.

Ces opérations doivent être effectuées sur les deux hyperviseurs c’est-à-dire VH01 et VH02.

Effectuer une migration dynamique

Une fois la migration dynamique activée et configurée de manière similaire sur les deux hyperviseurs
(VH01 & VH02) il est possible de faire migrer une machine virtuelle hébergée sur VH01 vers VH02.

Avant de commencer la migration il est utile de rappeler les prérequis à respecter :

- Le rôle Hyper-V installé sur les deux hyperviseurs (source et destination).


- Les deux hyperviseurs doivent être joints au même domaine.
- Si les deux hyperviseurs font partie de deux domaines différents, il faut une relation
d’approbation.
- Un compte membre du groupe administrateurs du domaine pour la configuration de la délégation
(en cas d’utilisation de l’authentification Kerberos).
- Un compte qui est membre du groupe administrateur Hyper-V local ou administrateur local des
serveurs Hyper-V pour l’activation de la migration.

Il faut faire cette opération pour les deux objets ordinateurs (VH01 et VH02).

Pour la délégation, il est nécessaire de se rendre dans l’Active Directory et de sélectionner l’objet
Ordinateur de l’hyperviseur source, ici VH01, et d’aller dans ses propriétés.

Allez dans l’onglet Délégation. Il suffit ensuite de cliquer sur N’approuver cet ordinateur que pour la
délégation aux services spécifiés, et de choisir l’option Utiliser uniquement Kerberos.

Ajoutez ensuite les services. Pour cela, cliquez sur Ajouter.

Il faudra dans un premier temps ajouter le serveur Hyper-V de destination en cliquant sur Utilisateurs
ou ordinateurs.

Sélectionnez ici le serveur Hyper-V de destination VH02.lab.com.

Ajoutez ensuite les services suivants :


- CIFS pour la migration de stockage
- Microsoft Virtual System Migration Service pour la migration de machine virtuelle.

28
LP ISVD Virtualisation des systèmes 2017-2018

Cliquez sur OK.

Cliquez sur Appliquer et OK pour finir. Refaites ensuite la même opération mais sur l’objet ordinateur
VH02. Lors de la sélection de l’ordinateur, il faudra choisir VH01.lab.com.

Une fois terminé, nous allons pouvoir procéder à la migration dynamique d’une machine virtuelle.

Migration de machine virtuelle

Il y a plusieurs options pour le déplacement de machines virtuelles au sein d’Hyper-V 2016, nous allons
les voir l’une après l’autre.
Ouvrez la console Gestionnaire Hyper-V :

Cliquez droit sur la machine virtuelle VM01 et cliquez ensuite sur Déplacer.

L’assistant de migration se lance, cliquez sur Suivant pour continuer :

Choisissez ici le type de déplacement.

Deux choix sont possibles, le déplacement de machine virtuelle ou le déplacement du stockage de la


machine virtuelle. Dans un premier temps, il faut choisir la première option, car nous allons faire le
déplacement de la machine virtuelle (VM01) de l’hôte de virtualisation VH02.lab.com vers l’hôte de
virtualisation VH01.lab.com :

Choisissez ici le serveur de destination VH01.lab.com et cliquez sur Suivant :

Lors d’une migration de machine virtuelle, Hyper-V propose plusieurs choix :


- Déplacer les données de l’ordinateur virtuel vers un seul emplacement : cette option
permet de déplacer la machine virtuelle ainsi que ses fichiers de configuration et son disque dur
virtuel (VHDx) dans un seul répertoire sur le serveur VH01.lab.com de destination.

Après avoir choisi cette option, l’assistant propose directement de choisir le répertoire du serveur de
destination qui accueillera le stockage de la machine virtuelle (fichiers de configuration et disque dur
virtuel).

Une fois le répertoire de destination sélectionné, cliquez sur Suivant pour poursuivre :

Vérifiez les options choisies pour le déplacement de la machine virtuelle à chaud. Cliquez sur Terminer
afin de commencer le déplacement.

La machine VM01 est migrée directement sur l’hôte de virtualisation VH01.lab.com :

Vérifions la présence de la machine virtuelle dans le dossier C:\VMs au sein de l’hyperviseur VH01. On
retrouve les dossiers qui correspondent à la machine virtuelle VM01 :

Maintenant que nous avons effectué le déplacement de la machine virtuelle avec la première option (qui
consiste à faire migrer tous les fichiers de la machine virtuelle vers une seule destination), nous allons
voir les deux autres options.

Pour cela, il suffit d’aller sur VH01.lab.com et d’effectuer un clic droit sur la machine virtuelle. Ensuite,
cliquez sur Déplacer.

L’assistant de déplacement de machine virtuelle va s’ouvrir, cliquez sur Suivant, ensuite choisissez la
première option Déplacer la machine virtuelle.

Entrez ensuite le serveur Hyper-V de destination qui sera cette fois-ci le serveur VH02.lab.com.

La première option a été traitée précédemment ; nous allons voir la deuxième option, qui consiste à faire
le déplacement de la machine virtuelle et ses fichiers avec la possibilité de choisir plusieurs
emplacements différents et d’être granulaire.

Cliquez sur Suivant pour poursuivre :


- Déplacement de la machine virtuelle et ses données sur l’hôte de destination en réutilisant le
même emplacement que l’hôte source.
- Déplacement du disque dur virtuel dans un emplacement différent : cette option permet de
déplacer le disque dur virtuel de la machine virtuelle vers un autre répertoire au sein de l’hôte de
destination.

29
LP ISVD Virtualisation des systèmes 2017-2018

- La dernière option permet de déplacer les fichiers et la machine virtuelle de manière granulaire,
ce qui va nous permettre de choisir des dossiers différents pour l’emplacement des disques durs
virtuels et fichiers de configuration, etc.

Si l’option Déplacer automatiquement les données de l’ordinateur virtuel est sélectionnée : le


système vous propose directement de migrer car il va s’occuper de déplacer la machine virtuelle ainsi
que les données de manière similaire en se basant sur les informations de l’hôte source :

Si l’option Déplacer les disques durs virtuels de l’ordinateur virtuel vers des emplacements
différents est choisie,

il suffit de sélectionner le disque dur virtuel de la machine virtuelle (ici nous n’avons qu’un seul disque
dur virtuel).

Choisissez ensuite le chemin où sera stocké le disque dur virtuel (sur l’hôte de virtualisation distant).

Cliquez sur Suivant afin d’avoir la vérification de vos actions. Cliquez ensuite sur Terminer pour
commencer le déplacement :

Et si vous avez choisi la dernière option :

L’assistant va proposer le choix de stocker ces différents éléments à des emplacements différents sur
l’hôte de destination.

Choix de l’emplacement du disque dur virtuel : C:\vms\


Choix de l’emplacement des fichiers de configuration : C:\vms\conf\
Choix de l’emplacement des points de contrôle : C:\vms\CheckPoint\

Choix de l’emplacement des fichiers de pagination intelligente (Smart Paging Files) : C:\vms\

Vérifiez les options choisies et cliquez sur Terminer pour commencer le déplacement :

Déplacement du stockage des machines virtuelles

Il est possible également de migrer le stockage des machines virtuelles, cela concerne les fichiers de
configuration, et les disques durs virtuels de la machine virtuelle.

Par défaut Hyper-V fixe la migration de stockage à deux migrations simultanées.

Le déplacement du stockage des machines virtuelles peut être utile en cas de manque d’espace sur un
disque, cela permettra de réaliser le déplacement des disques virtuels et fichier de configuration des
machines virtuelles vers un disque dur qui content plus d’espace disque.
Nous l’avons vu précédemment, il est possible de déplacer le stockage de la machine virtuelle vers un
autre hyperviseur, ici nous allons voir le déplacement du stockage de manière locale, dans le cas où le
serveur disposerait de plusieurs disques.

Il est possible de faire le déplacement à chaud comme à froid, nous allons réaliser ici les opérations à
chaud sur le même serveur VH01.lab.com, le stockage de la machine virtuelle VM01 se trouve dans
C:\VMs, et il sera déplacé vers E:\VMs.

Migration du stockage de la machine virtuelle dans un autre emplacement du serveur source

Pour réaliser ce déplacement, il suffit d’aller dans le Gestionnaire Hyper-V; faites un clic droit sur la
machine virtuelle en question (VM01) et cliquez sur Déplacer :

L’assistant de déplacement s’ouvre, cliquez sur Suivant.

Choisissez ici Déplacer le stockage de l’ordinateur virtuel et cliquez sur Suivant :

Choisissez la première option, qui consiste à déplacer tous les fichiers de la machine virtuelle ainsi que
ses disques durs virtuels vers le même et unique emplacement :

Choisissez la destination, ici nous allons choisir un autre disque : E:\VMs.

Vérifiez et cliquez sur terminer afin de commencer le déplacement des fichiers vers E:\VMs.

30
LP ISVD Virtualisation des systèmes 2017-2018

Attention, la machine virtuelle fonctionne toujours sur le même hôte Hyper-V, seuls ses fichiers de
configuration ainsi que son disque dur virtuel sont déplacés vers le disque E:

Vérification

Les fichiers de configuration ainsi que le disque dur virtuel de la machine virtuelle VM01 ont été
transférés de C:\VMs vers E:\VMs :

Déplacement du stockage de la machine virtuelle à des emplacements différents

Dans cette section, nous allons voir le déplacement des fichiers de machines virtuelles à des
emplacements différents, ce qui permet de laisser le choix aux administrateurs d’organiser le stockage
de leurs machines virtuelles en fonction de leur nomenclature de stockage.

Ouvrez le Gestionnaire Hyper-V, cliquez droit sur la machine virtuelle (VM01).

Ensuite, cliquez sur Déplacer.

Choisissez ensuite l’option Déplacer le stockage de l’ordinateur virtuel.

Choisissez l’option Déplacer les données de l’ordinateur virtuel vers d’autres emplacements, qui
permet donc d’être granulaire au niveau des choix de destination :

Sélectionnez tous les fichiers de la machine virtuelle :

Choisissez l’emplacement du disque dur virtuel de la machine virtuelle : (E:\Disk).

Choisissez l’emplacement des fichiers de configuration de la machine virtuelle (E:\Config).

Choisissez l’emplacement des points de contrôle : (E:\CheckPoint).

Choisissez l’emplacement des fichiers de pagination intelligente (E:\Pages).

Vérifiez, cliquez ensuite sur Terminer afin de commencer le déplacement de ces fichiers vers les
emplacements sélectionnés :

Migration uniquement du disque dur virtuel de la machine virtuelle

Dans cette section, nous allons voir le déplacement du disque dur virtuel d’une machine virtuelle
uniquement.

Ouvrez le Gestionnaire Hyper-V, ensuite faites un clic droit sur une machine virtuelle (ici VM01), et
cliquez sur Déplacer.

Sélectionnez l’option Déplacer le stockage de l’ordinateur virtuel et cliquez sur Suivant :

Choisissez l’option Déplacer uniquement les disques durs virtuels de l’ordinateur virtuel.

Choisissez le disque dur virtuel en question : VM01.vhdx

Choisissez son emplacement : E:\VMs\

Vérifiez et cliquez sur Terminer pour lancer le déplacement du disque dur virtuel de la machine virtuelle.

8. Stockage sous Hyper-V


La virtualisation de manière générale ne peut pas fonctionner sans une architecture de stockage robuste
et surtout hautement disponible.

La virtualisation subit une forte croissance au niveau des datacenters et systèmes d’informations. C’est
ainsi qu’on a vu naître de nouveaux concepts révolutionnaires tel le SDDC (Software Defined DataCenter)
de Vmware par exemple afin de gérer les datacenters de manière logicielle, ce qui permettra d’être plus
productif, de gagner en rapidité d’administration, d’exploitation et surtout automatisation des
déploiements. C’est ce qu’on appelle les infrastructures hyperconvergées dans lesquelles on peut
retrouver plusieurs couches (système, calcul, stockage et réseau).

31
LP ISVD Virtualisation des systèmes 2017-2018

Avec l’arrivée des infrastructures hyperconvergées, Microsoft et Hyper-V rentrent dans une nouvelle ère
afin de ne pas rater le train et rester compétitifs sur le marché.

Avec Windows Server 2016 Microsoft fait un grand pas vers ces infrastructures hyperconvergées au
niveau stockage SDS (Software Defined Storage) avec les Storage Spaces Direct ainsi que le SDN
(Software Defined Network) qui va permettre de gérer et de virtualiser le réseau de manière logicielle.

Microsoft l’a compris et ne cesse d’améliorer l’interaction du stockage avec son hyperviseur Hyper-V.
Désormais, depuis la version 2012, Hyper-V est capable de prendre en charge des stockages réseau
(mode fichier) de type application avec SMB3, ce qui permet de laisser plusieurs choix au niveau du
stockage et offre une infrastructure de virtualisation optimale et robuste qui pourrait concurrencer la
suite vSphere de chez Vmware.

Comprendre le concept du SDS

Le Software Defined Storage (SDS) est une technologie qui permet de gérer le stockage de manière
logicielle et mutualisée.

Une solution SDS va donc virtualiser les ressources de stockage, le tout piloté par une couche de
contrôle qui va contrôler, distribuer et allouer les ressources. Une autre couche s’occupera de la partie
stockage c’est-à-dire la gestion des disques, du Raid, ainsi que la configuration du type de stockage
(fixe, dynamique, etc.).

Concrètement comment cela fonctionne-t-il sous Windows Server 2016 avec les Storage Spaces Direct ?

À partir des disques durs physiques locaux de plusieurs serveurs sous Windows Server 2016, il est
possible de créer un pool de stockage qui agrège les disques physiques en une seule unité de stockage.

À partir de ce pool de stockage, il est possible de créer plusieurs volumes avec plusieurs mécanismes tels
que le RAID 0, RAID1 ou RAID 5.

Une fois créé, on peut créer des disques virtuels dans ces volumes et les présenter à nos hyperviseurs
Hyper-V comme stockage en mode bloc en iSCSI par exemple ou en mode fichier si on l’on crée un
partage SMB de type application dans ce disque dur virtuel.

9. Hyper-V, la convergence et l’hyperconvergence avec Windows Server

Depuis Windows Server 2012, Microsoft fait son entrée dans la convergence au niveau stockage, ce qui
permet d’avoir une architecture compacte et optimale taillée pour des besoins de virtualisation.
Dans Windows Server 2016, Microsoft a su prendre le train du SDS afin de compléter son offre et attirer
d’autres clients potentiels.
Cela passe par la virtualisation du stockage ce qui va faciliter la gestion et surtout minimiser les coûts
d’achat.

Virtualisation du stockage avec les Storage Spaces

Présentation du concept

Dans ce concept, Microsoft facilite la gestion et surtout le déploiement des infrastructures de stockage à
moindre coût.
Pour faciliter la gestion du stockage, Microsoft introduit deux nouvelles notions dans le stockage au sein
de Windows Server qui sont :

- Storage Pool
- Storage Space

Le Storage Pool

C’est une technique qui permet d’agréger plusieurs disques de stockage physique de technologies
diverses (SATA, SAS, etc.) en un seul pool de stockage, c’est-à-dire une seule unité de stockage.

À partir de quatre disques physiques de 10 Go chacun, il est possible de les agréger en une seule unité
de stockage de 40 Go, ce qu’on appelle le Storage Pool.

32
LP ISVD Virtualisation des systèmes 2017-2018

Les Storage Spaces

Ce sont des disques virtuels qui sont créés à partir du Storage Pool directement, ce sont donc des
disques virtuels qui sont basés directement sur l’agrégation de disque effectuée.

En créant des Storage Spaces, le système propose plusieurs choix de configuration au niveau de la
disponibilité et protection des données :

- Simple : pas de protection ni de redondance, c’est un disque simple


- Mirror : c’est l’équivalent du RAID 1, celui-ci offre une redondance, c’est-à-dire que les données
écrites sur un disque, sont dupliquées vers un autre disque miroir.
- Parity : c’est l’équivalent du RAID 5, les données sont réparties sur plusieurs disques lors de
l’écriture, de plus, il y a également la parité qui est répartie sur l’ensemble des disques pour des
gains de performances (un minimum de trois disques pour choisir ce mode).

Il est également possible de faire du Thin Provisioning. C’est une technologie qui permet d’optimiser
l’espace de stockage, c’est-à-dire que le disque ne prendra pas l’espace de stockage alloué au départ
mais grossira au fur et à mesure et en fonction de l’utilisation, il se remplira.
Une fois ces connaissances acquises, nous allons pouvoir mettre en place notre solution de stockage avec
le Storage Spaces.

Préparation du serveur de stockage

La mise en place va nécessiter les prérequis suivants :


- Un serveur de stockage : vStore01 sous Windows Server 2016 avec comme IP : 172.16.1.1 /16.
- Trois disques physiques attachés à ce serveur (non initialisés).
- Ce serveur n’est pas joint au domaine LAB.com.

Une fois installé et configuré, vous devez avoir la configuration similaire au niveau nom et adressage IP

Au niveau du disque dur physique, vous devez avoir trois disques durs non initialisés et non alloués.

Ces disques sont également visibles dans le Gestionnaire de serveur

Il est possible également de lister ces disques en PowerShell avec la commande suivante :

Get-PhysicalDisk

On peut voir ici la présence du disque C:\ ainsi que des trois disques supplémentaires de 20 Go chacun.

Une fois ces prérequis réunis, il est possible de commencer la mise en œuvre des Storage Spaces.

Création du Storage Pool

Ouvrez le Gestionnaire de serveur Service de fichier et de stockage Pool de stockage.


Une fois dessus, cliquez sur Nouveau pool de stockage :

L’assistant de création de Storage Pool s’ouvre, cliquez sur Suivant pour commencer :

Saisissez le nom du Storage Pool POOL1, remarquez que nous allons nous baser sur le sous-système
De notre serveur de stockage vStore01, et cliquez sur Suivant.

Sélectionnez les trois disques durs physiques. Le système indique qu’après agrégation, la capacité totale
sera de 60 (20 + 20 + 20). Cliquez sur Suivant pour poursuivre :

Vérifiez et cliquez sur Créer pour commencer la création du Storage Pool :

La création du Storage Pool est désormais terminée, vous pouvez fermer l’assistant :

Afin de vérifier que la création du Storage Pool POOL1 s’est bien déroulée, il faut se rendre dans le
Gestionnaire de serveur Service de fichier et de stockage Pool de stockage. On peut constater la
présente du Storage Pool POOL1 :

Il est possible également de créer le Storage Pool en PowerShell avec le script suivant :

#Récupération des disques physiques présents sur le serveur vStore1

$PhysicalDisks = Get-PhysicalDisk -CanPool $true

33
LP ISVD Virtualisation des systèmes 2017-2018

#Nom du storage pool


$FriendlyName = "POOL1"

#Le friendly name


$systemfriendlyname = "Windows Storage on vStore01"

#Création du Storage pool


New-StoragePool -StorageSubSystemFriendlyName $systemfriendlyname -
PhysicalDisks $PhysicalDisks -FriendlyName $FriendlyName

La valeur de la variable $systemfriendlyname dépend du nom que vous avez donné au serveur, ici c’est
vStore01 donc la valeur est : Windows Storage on vStore01.

Vérifiez la création du Storage Pool avec la commande suivante :

La création du Storage Pool est désormais terminée, la prochaine étape consiste à créer les Storage
Spaces à partir de ce Storage Pool.

Création des Storage Spaces

Pour créer un Storage Space, ouvrez le Gestionnaire de serveur Service de fichier et de stockage
Pool de stockage :
Cliquez droit sur le Storage Pool créé auparavant et créez un nouveau disque virtuel Storage Space.

Le pool de stockage va être créé à partir du pool de stockage "Pool1" créé auparavant.

Sélectionnez Pool1 et cliquez sur OK.

L’assistant de création de disques virtuels s’ouvre, cliquez sur Suivant afin de poursuivre :

Nommez le disque vDISK, et cliquez sur Suivant pour poursuivre :

Remarquez que l’assistant propose, si le système en dispose, d’utiliser des disques SSD pour activer le
tiering afin d’améliorer les performances.

Cliquez une nouvelle fois sur Suivant :

Choisissez le mode Parity et cliquez sur Suivant.

Choisissez le type de provisionnement Fin et cliquez sur Suivant :

Utilisez tout l’espace disponible pour ce Storage Space et cliquez sur Suivant :

Vérifiez les paramètres puis cliquez ensuite sur Créer :

La création du Storage Space s’est bien déroulée, cliquez sur Fermer :

Vérifiez ensuite la présence du disque virtuel vDISK dans le Gestionnaire de serveur.

Il est possible de créer les Storage Spaces en PowerShell, utilisez le script suivant (il est à adapter en
fonction de votre configuration) :

$friendly = "vDISK"
$storagepool = "POOL1"

#Création du disque virtuel qui sera basé sur le Storage Pool "POOL1"
New-VirtualDisk -FriendlyName $friendly -StoragePoolFriendlyName
$storagepool -ProvisioningType Thin -ResiliencySettingName parity
-Size 56GB

Voici le résultat du disque dur virtuel créé : vDISK : Get-VirtualDisk

Retournez sur le Gestionnaire de serveur et remarquez le type de ce disque virtuel vDISK qui vient d’être
créé.

Allez dans Disques, le disque virtuel vDISK est présent avec comme type Espaces de stockage.

34
LP ISVD Virtualisation des systèmes 2017-2018

À ce stade, le Storage Space (disque virtuel) basé sur le Storage Pool POOL1 est créé, il faut ensuite
réaliser les étapes suivantes :

- Mettre en ligne le disque.


- Formater le disque.
- Créer le volume sur lequel seront stockés des disques durs virtuels iSCSI qui feront office de LUN
et qui seront présentés aux hyperviseurs (VH01 et VH02).

Pour mettre en ligne le disque, ouvrez la console Gestion des disques du serveur :

Mise en ligne du disque

Remarquez la présence du disque Disque4, cliquez droit sur le disque et mettez-le en ligne en cliquant
sur En ligne.

Création d’un volume

Cliquez droit sur le disque et sélectionnez Nouveau volume simple :

L’assistant de création de volume s’ouvre, cliquez sur Suivant afin de commencer :

Choisissez la taille du volume puis cliquez sur Suivant :

Assignez la lettre de lecteur, et cliquez sur Suivant :

Choisissez le format NTFS, nommez le volume et cliquez sur Suivant :

Cliquez sur Terminer afin de lancer la création et le formatage du volume :

Une fois le volume créé, il est possible de vérifier la présence du volume (DISK) E: dans l’explorateur
Windows :

Il est également possible de vérifier la présence du nouveau volume dans le Gestionnaire de serveur
ainsi que dans la console Gestion des disques.
Dans le Gestionnaire de serveur, on constate la présence du volume avec le nom DISK et la lettre E :

Vérification dans la console Gestion des disques (Disque 4 DISK E: ) :

Création de vDISK iSCSI (LUN)

Après avoir créé le Storage Pool ainsi que le Storage Space, il est possible désormais de créer les LUNs.
Ces LUNs seront ensuite attachées via le protocole iSCSI aux hyperviseurs Hyper-V
(VH01 et VH02).
Avant de commencer, il est nécessaire d’installer le service de rôle iSCSI comme ceci :

Add-WindowsFeature -name FS-iSCSITarget-Server

Il est possible de l’installer via l’interface graphique en ajoutant le même service de rôle.
À l’issue de l’installation, il est nécessaire de redémarrer le serveur.

À cet instant, nous pouvons commencer la création des vDISK iSCSI (LUN) avec la commande suivante :

New-IscsiVirtualDisk -Path E:\LUN\LUN-01.vhdx -SizeBytes 4GB

Il est possible de vérifier la présence du disque virtuel ISCSI nommé LUN01 dans le répertoire E:\LUN :

Il est possible également de créer des vDIsk iSCSI via l’interface graphique.

Ouvrez le Gestionnaire de serveur.

Ensuite, rendez-vous dans le Service de fichiers et de stockage iSCSI.

Remarquez la présence de la LUN LUN01 créée auparavant en PowerShell. Pour en créer une deuxième,
cliquez sur Tâches Nouveau disque virtuel iSCSI :

Un assistant va s’ouvrir afin de guider la création de ce disque virtuel.

35
LP ISVD Virtualisation des systèmes 2017-2018

Attention à bien choisir ici le volume E :, qui correspond ici à notre Storage Space.

Cliquez sur Suivant afin de poursuivre la création.

Le disque virtuel ici sera nommé LUN02 avec une description :

Cliquez sur Suivant.

Spécifiez ici la taille du disque. Remarquez ici que vous pouvez choisir trois types de disques :

- Taille fixe
- Taille dynamique
- Différenciation

Choisissez Taille dynamique et cliquez sur Suivant :

Ce serveur ne dispose pas encore de cible iSCSI, l’assistant propose d’en créer une.

Laissez l’option par défaut ceci et cliquez sur Suivant.

La cible iSCSI doit être nommée, ici Target01 :

L’écran suivant permet de spécifier les serveurs Hyper-V (VH01 et VH02) qui auront le droit de se
connecter à cette cible iSCSI via leur initiateur iSCSI.

Cliquez sur Ajouter et ajoutez les deux serveurs VH01.lab.com et VH02.lab.com, comme ceci :

Vous devrez obtenir le même résultat qu’obtenu dans la figure suivante :

Cliquez sur Suivant afin de poursuivre.

Vous pouvez activer le protocole CHAP pour l’authentification des serveurs si besoin est.

Cliquez sur Suivant pour poursuivre.

L’écran suivant résume les actions à effectuer.

Cliquez sur Créer afin de lancer la création du disque virtuel iSCSI et de la cible associée.

La création de la LUN est terminée avec succès :

Si votre serveur de stockage n’arrive pas à résoudre le nom de votre serveur, cela est dû à un souci de
résolution DNS. Vous pouvez soit configurer le tout avec votre serveur DNS soit utiliser des fichiers Host.
Il est possible de mettre directement l’adresse IP des serveurs initiateurs (Hyper-V).

Une fois la création terminée, il est possible de voir les deux LUN créées dans le Gestionnaire de serveur.
On peut voir les LUN 01 et 02 :
On peut les voir également avec la commande PowerShell suivante : Get-IscsiVirtualDisk

Connexion avec iSCSI Initiator

Une fois que la partie stockage a été implémentée, c’est-à-dire :


- La création du serveur
- La création du ou des Storage Pool
- La création des Storage Spaces
- La création des vDisk iSCSI (LUN)

Il est temps de présenter les LUN aux serveurs Hyper-V afin qu’ils puissent y stocker leurs machines
virtuelles directement, ce qui leur permettra d’avoir un stockage dans une autre unité et non un stockage
local.
Bien entendu, ce stockage partagé offre la possibilité de mise en place d’architectures hautement
disponibles qui seront abordées plus tard dans cet ouvrage.
Au niveau du fonctionnement, le ou les serveurs vont se connecter à la cible iSCSI créée précédemment.
Cette cible iSCSI Target01 bien entendu doit contenir les initiateurs iSCSI qui vont s’y connecter, c’est-à-
dire nos serveurs Hyper-V.
Pour information, il est possible de se connecter à une cible iSCSI en interface graphique ou en
PowerShell. Nous allons voir les deux méthodes.

36
LP ISVD Virtualisation des systèmes 2017-2018

Depuis le serveur VH02, lancez une console PowerShell en tant qu’administrateur :

Il faut réaliser les tâches suivantes :


- Mettre en route le service iSCSI Initiator.
- Configuration pour permettre le démarrage automatique du service iSCSI Initiator.
- Découverte de la cible iSCSI.
- Connexion à la cible iSCSI.
- Mettre en route le service iSCSI :
il faut passer la commande PowerShell suivante : Start-Service msiscsi

Il est possible de vérifier que le service est bien lancé comme ceci :
get-service -name msiscsi

Configuration du démarrage automatique du service iSCSI initator

Passez la commande suivante qui permet le démarrage automatique du service MSiSCSI :


Set-Service msiscsi -StartupType Automatic

Découverte de la target iSCSI

Saisissez la commande suivante :

New-IscsiTargetPortal -TargetPortalAddress 172.16.1.1

172.16.1.1 est l’adresse de notre serveur de stockage vStore01.

Connexion à la cible iSCSI


Afin de pouvoir se connecter à la cible iSCSI qu’on vient de découvrir, il faut aller chercher son IQN qui
se trouve dans ses propriétés dans le Gestionnaire de serveur :

Une fois l’IQN récupéré, il est temps de connecter l’hyperviseur à la cible iSCSI Target01 comme ceci :

Connect-IscsiTarget -NodeAddress "iqn.1991-05.com.microsoft:vstore01-target-


01-target"

Une fois appliqué, la connexion à la cible Target01 est établie :

Il est possible de vérifier les connexions iSCSI avec la commande suivante :


Get-iSCSIconnection

Il est possible de vérifier la connexion iSCSI via l’iSCSI Initiator.

Lancez le programme en cliquant sur Démarrer puis en tapant "Initiateur iSCI" dans la barre de
recherche :

On peut voir que le serveur est bien connecté à la cible iSCSI Target01.

À ce stade, le serveur Hyper-V VH02 est connecté à la cible iSCSI via le protocole iSCSI.
Au niveau fonctionnement, dans notre cas, la LUN est directement présentée au serveur Hyper-V comme
si ce dernier était directement connecté via un contrôleur SCSI sur le serveur.

Afin de vérifier, il suffit d’aller dans le gestionnaire de disque du serveur Hyper-V VH02 et constater qu’il
y a bien un disque présenté qui provient du serveur de stockage vStore01.

Pour y accéder, cliquez droit sur l’icône démarrer du serveur et allez dans Gestion de disque.

Vous devez avoir le même résultat, c’est-à-dire un nouveau disque dur en mode hors ligne :

Afin de bénéficier de cette LUN et de ce disque sur notre hyperviseur, il faudra réaliser les actions
suivantes :

- Le mettre en ligne
- Initialiser le disque

Pour mettre en ligne le disque, faites un clic droit sur le disque, ensuite cliquez sur Mettre en ligne.

Ensuite, il faut initialiser le disque.

Faites un clic droit sur le disque et cliquez ensuite sur Initialiser le disque :

37
LP ISVD Virtualisation des systèmes 2017-2018

Il faut choisir ici le disque qui sera initialisé.

Nous n’avons qu’un seul disque pour l’instant, choisissez le Disque 1 et cliquez sur OK :

La prochaine opération permet la création du volume.

Faites un clic droit sur le disque et cliquez sur Nouveau volume simple :

Un assistant s’ouvre afin de vous aider à la création et au formatage de ce nouveau volume.

Ce volume sera la LUN présentée par notre serveur de stockage via le protocole iSCSI. On pourra y
stocker les fichiers des machines virtuelles et mettre en oeuvre par exemple une infrastructure Hyper-V
hautement disponible avec la fonctionnalité cluster.

L’assistant s’ouvre comme ceci puis cliquez sur Suivant afin de commencer la création du volume :

Choisissez la taille du volume :

Sélectionnez la lettre du lecteur :

Choisissez le système de fichiers, ainsi que le nom du volume LUN01 :

L’écran suivant résume les actions à réaliser pour la création du disque.

Cliquez sur Terminer afin de lancer la création du volume :

Une fois terminé, vous devez obtenir ceci : le disque 1 est bien formaté en NTFS et disponible afin
d’accueillir les machines virtuelles de notre hyperviseur.

Regardons de plus près dans l’explorateur Windows. On aperçoit bien le disque qui provient de notre LUN
créée au niveau de notre serveur de stockage et présentée via le protocole iSCSI :

Désormais, il est possible maintenant de créer de nouvelles machines virtuelles au sein de notre
hyperviseur Hyper-V et les stocker au sein de cette LUN. Ce qui permet d’offrir une architecture
convergée avec les Storage Spaces.

Il est possible de faire pointer le stockage des machines virtuelles et des disques virtuels des machines
virtuelles directement sur cette LUN par défaut dans les paramètres Hyper-V.

Virtualisation de stockage avec les Storage Spaces Direct

Windows Server 2016 suit le marché et les nouveautés, notamment en matière d’infrastructure
hyperconvergée.

Microsoft introduit les Storage Spaces Direct, une amélioration de la solution Storage Spaces apparue
avec la version Windows Server 2012.

Ceci permet d’avoir une autre vision par rapport aux architectures SAN/NAS souvent très coûteuses pour
les clients.

De plus, Microsoft introduit ces infrastructures hyperconvergées de manière très simple afin d’être le plus
rapidement opérationnel.

Présentation du concept

Les Storage Spaces Direct sont une technologie SDS (Software Defined Storage) qui permet de créer une
infrastructure virtualisée de stockage hautement disponible.

Cette solution va permettre aux entreprises d’avoir des architectures de stockage robustes, hautement
disponibles à moindre coût, directement introduites dans Windows Server 2016. De plus, on s’affranchit
des connaissances en termes de stockage SAN.

Cette technologie arrive avec une amélioration qui est l’agrégation des disques locaux de chaque serveur
dans le cluster afin de constituer un pool de stockage, le même principe est utilisé pour les Storage

38
LP ISVD Virtualisation des systèmes 2017-2018

Spaces classiques ; sauf qu’avec le Storage Space Direct il est possible d’agréger plusieurs disques
locaux de plusieurs serveurs qui sont dans un cluster en un pool de stockage.

Ceci est possible grâce à un bus SSB (Software Storage Bus) qui fera le lien entre tous les nœuds du
cluster.

La communication entre les serveurs pour l’ensemble du stockage se fera via le protocole de stockage
SMB3.

Une fois que les disques locaux de chaque serveur faisant partie du cluster sont agrégés en un pool de
stockage, il est possible par la suite de créer des disques virtuels. Ensuite ces disques virtuels pourront
être présentés au serveur de virtualisation Hyper-V comme espace de stockage des machines virtuelles.
Ou alors il est possible de créer un cluster SOFS et de faire un partage SMB à partir de ces volumes afin
de stocker des machines virtuelles.

Cette nouvelle technologie utilise également les dernières innovations matérielles telles que le RDMA et
les disques NVMe afin de gagner en performance.

Architecture hyperconvergée

Dans une infrastructure hyperconvergée nous avons la pile calcul (virtualisation) et la pile stockage
(Storage Space Direct) dans le même cluster, d’où la notion d’hyperconvergence. Cette architecture
hyperconvergée possède plusieurs éléments :

- Stockage CSV avec CSVFS (Clusterd Shared Volume File system)


- Storage Space
- Le cluster FailOver Clustering

Plusieurs notions sont à connaître dans cette architecture :

- Réseau de communication : la communication entre chaque serveur du cluster se fait via SMB, il
est nécessaire d’avoir des cartes réseaux qui supportent le RDMA afin d’avoir de bonnes
performances en production.

- Stockage matériel : chaque serveur peut avoir plusieurs technologies matérielles de stockage
(disques SATA, disque NVMe, disque SAS ou encore des disques SAS externes connectés via une
baie JBOD).

- Bus de stockage : appelé également SSB (Software Storage Bus) le bus de stockage est un bus
virtuel qui va communiquer avec tous les noeuds du cluster. Ce bus permet à chaque noeud de
voir tous les disques des autres noeuds qui composent le cluster. Le bus SSB dispose de deux
composants sur chaque noeud du cluster qui sont le ClusPort et le ClusBlft.

- Le composant ClusPort crée un HBA virtuel (Host Bus Adapter) qui va permettre à un noeud de
se connecter aux disques locaux des autres serveurs du cluster.

- Le composant ClusBlft s’occupe de la virtualisation des disques durs et s’assure que chaque
composant ClusPort de chaque noeud puisse se connecter.

- Storage Pool : c’est l’agrégation des disques locaux de chaque noeud dans le cluster en une
unité de stockage.

- Storage Spaces : ce sont les disques durs virtuels qui sont créés à partir du Storage Pool.

- ReFS (Resilient File System) : c’est le système de fichiers qui apporte énormément
d’améliorations au niveau du stockage. Les machines virtuelles Hyper-V seront stockées dans un
stockage qui aura pour système de fichiers ReFS. Il offre plusieurs avantages pour la
virtualisation, de l’optimisation pour les Storage Spaces ainsi qu’une meilleure gestion des
erreurs, et la correction automatique. Il permet également d’avoir de meilleures performances
au niveau des opérations avec les disques virtuels VHDx.

- Cluster Shared Volume File System : le système de fichiers du stockage CSV.

Le SSB contient également plusieurs mécanismes :

- Software Storage Bus Cache : le SSB implémente également un mécanisme de mise en cache
SBC (Storage Bus Cache).

39
LP ISVD Virtualisation des systèmes 2017-2018

- Software Storage Bus Bandwidth Management : SSB met en oeuvre un algorithme d’accès qui
va répartir la charge au niveau des périphériques à partir de n’importe quel noeud du cluster, ce
qui va éviter la surcharge, il est capable également de faire de la priorisation d’I/O
(Input/Output).

- Protocole de transport SMB : le SSB, comme cité plus haut, utilise le protocole SMB pour le
transport entre les nœuds du cluster. Lors de la communication, il y a une instance distincte SMB
sur chaque noeud, ce qui permet de la séparer des autres communications telles que CSVFS,
ceci offre une résilience supplémentaire. De plus, l’utilisation de SMB permet de profiter de ses
innovations telles que le SMB Direct (RDMA) et le SMB multichannel.

Les avantages d’une infrastructure Storage Space Direct

- Simplicité de déploiement : comme cité précédemment, Microsoft a mis le focus sur la rapidité et
la simplicité de mise en oeuvre des Storage Spaces Direct. En effet, le Storage Space Direct est
une technique relativement simple à mettre en oeuvre au sein d’une organisation.

- Tolérance aux pannes : cette technologie permet une bonne tolérance aux pannes en cas de
perte d’un noeud ou d’un disque au niveau du Storage Pool. Appelé "Résilience", similaire au
RAID classique qu’on connaît, mais dans ce cas, cela couvre tous les disques qui sont distribués
sur tous les noeuds du cluster. Elle permet également de protéger des racks complets de
serveurs avec la technologie Fault Domain Awareness.

- Performances : cette technologie permet d’atteindre des niveaux de performance relativement


remarquables, elle peut atteindre jusqu’à 3 millions d’IOPS avec quatre noeuds avec du full flash
ainsi qu’une carte réseau GbE DualPort Chelsio TS80.

- Efficacité : les Storage Spaces Direct permettent un gain de performances de plus de 2,4 fois
plus élevées, avec des innovations telles que Local Reconstruction Codes, cela permet également
de minimiser la charge au niveau de la consommation CPU.

- Qualité de service (QoS) : la QoS au niveau du stockage permet de contrôler les IOPS qui sont
générés par les machines virtuelles afin de contrôler les charges de travail.

- Heath Service : cette technologie permet de surveiller l’infrastructure de manière continue, elle
permet également d’alerter les administrateurs en cas de soucis au niveau de l’infrastructure.
Avec de nouvelles API, il sera possible de collecter des performances au niveau du cluster et
ainsi de mesurer les capacités.

- Évolutivité : l’infrastructure Storage Space Direct permet l’ajout de noeuds supplémentaires à la


volée, pouvant aller jusqu’à 16 noeuds et plus de 400 disques qui peuvent être mélangés pour
faire du tiering, par exemple (SSD + HDD / NVMe + SSD).

Modes de déploiement
Microsoft propose avec les Storage Spaces Direct deux méthodes de déploiement :

- Infrastructure convergée : l’infrastructure convergée, nécessite d’avoir deux couches


distinctes, c’est-à-dire la partie calcul (virtualisation Hyper-V) séparée de la couche du stockage.
En général dans ce type d’infrastructure, les serveurs Hyper-V pourront se connecter à
l’infrastructure de stockage via le protocole SMB3 hébergé sur un cluster SOFS
(ScaleOutFileServer) qui est basé sur les Storage Spaces Direct avec plusieurs noeuds.

- Infrastructure hyperconvergée : comme cité en introduction, cette infrastructure permet


d’avoir les deux couches Stockage et Calcul dans le même cluster. Il est possible d’avoir un
scénario de virtualisation qui consiste à avoir plusieurs hyperviseurs qui stockent leurs machines
virtuelles au sein de leurs disques locaux vu que ces derniers sont en cluster et sont configurés
pour faire du Storage Space Direct (en réalité, les machines virtuelles seront stockées sur un
stockage CSV comme cités plus haut). Il est possible également d’avoir des bases de données
SQL Server dans une infrastructure hyperconvergée.

Résilience

Comme cité plus haut, les Storage Spaces permettent une tolérance aux pannes au niveau des disques,
tels que le système RAID, sauf que dans ce cas précis, cette tolérance sera prise en compte sur tous les
disques qui sont agrégés via les Storage Spaces Direct.
Storage Spaces Direct propose deux catégories de tolérance à la panne qui sont :

40
LP ISVD Virtualisation des systèmes 2017-2018

- le mirroring
- la parité

Le mirroring

Ceci est semblable au RAID 1, il y a la donnée stockée ainsi que sa copie. Dans le cas des Storage
Spaces, chaque donnée est écrite dans son intégralité sur différents matériels physiques (différents
disques physiques sur différents serveurs qui font partie du cluster), ce qui accentue la tolérance à la
panne en cas de panne d’un serveur physique.

Windows Server 2016 propose deux méthodes de Mirroring, le Two-way et le Three-way.

Le Two-Way permet d’écrire les données en deux copies, ce qui veut dire qu’au niveau de stockage, 50
% de l’espace disque total est disponible (pour écrire 1 To de données, il faut avoir un espace disque
physique de 2 To pour gérer la donnée et sa copie).

Le Three-Way écrit la donnée trois fois, ce qui offre du 33,3 % de l’espace total au niveau du stockage
libre, pour 1 To de données, il faudra 3 To d’espace physique.

La parité

La notion de parité offre une meilleure efficacité de stockage sans compromettre pour autant la tolérance
à la panne des disques.

Windows Server 2016 offre deux méthodes de parité : Single Parity et Dual Parity.

Single Parity : semblable au RAID 5, cette méthode de parité conserve un seul symbole de parité, elle
fournit une tolérance à la panne contre une seule défaillance à la fois. Avec le Storage Space Direct, il
faut au moins trois serveurs afin de profiter de cette méthode dite Single Parity.

Microsoft décourage l’utilisation de la méthode "Single Parity" vu que celle-ci traite une défaillance
matérielle à la fois, si vous avez un cluster à trois noeuds, lors du reboot d’un serveur, si un disque
tombe en panne sur un autre serveur au même moment, vous aurez une panne au niveau de votre
infrastructure Storage Space Direct

Dual Parity : cette méthode semblable au RAID 6 conserve deux symboles de parité contrairement à la
single Parity, ce qui va offrir une tolérance à la panne contre deux défaillances en même temps. Pour en
profiter, il est nécessaire d’avoir au moins quatre noeuds au sein du cluster Storage Space Direct. Cette
méthode offre un stockage de 50 % de l’espace total, c’est-à-dire que pour stocker 2 To de données, il
faut avoir 4 To de capacité de stockage physique.

Il est possible également de mixer la résilience entre Mirror et Parity, ReFS permet de gérer cela en
déplaçant les données entre les deux types de résilience. Pour un mix du Three Way Mirror et Dual Parity
il faudra au moins quatre noeuds au sein du cluster.

Recommandations

Voici une recommandation Microsoft pour la résilience avec les Storage Spaces Direct, celle-ci mentionne
les prérequis minimums pour chaque cas d’usage et surtout la capacité de stockage restant après avoir
appliqué la résilience.

Résilience Tolérance à la panne Stockage disponible


Mirror | Two Way 1 50 %
Mirror | Three Way 2 33,3 %
Parity | Single Parity 1 66,7 - 87,5 %
Parity | Dual Parity 2 50 % - 80 %
Mixed 2 33,3 % - 80 %

Dans le cas d’un cluster à 4 noeuds, il est recommandé d’utiliser le Dual Parity vu que cette méthode
permet de tolérer deux défaillances en simultané.

Multirésilience

Windows Server 2016 introduit MultiRésilient Virtual Disks, cela consiste à avoir dans un disque virtuel
deux tiers, un Mirror et un Parity :
Il est donc possible de créer des tiers Mirror et Parity comme ceci :
Tier Mirror :

41
LP ISVD Virtualisation des systèmes 2017-2018

New-StorageTier -StoragePoolFriendlyName "S2D"


-FriendlyName "Mirror" -MediaType HDD
-resiliencySettingName Mirror -PhysicalDiskRedundancy 2

Tier Parity :

New-StorageTier -StoragePoolFriendlyName "S2D"


-FriendlyName "Parity" -MediaType HDD
-resiliencySettingName Parity -PhysicalDiskRedundancy 2

ReFS écrit les données qui n’existent pas encore dans le disque dans le tier Mirror et, si c’est une mise à
jour, il va écrire les données dans le tier Parity.

Les nouvelles écritures sur le disque vont toujours être écrites dans le tier Mirror et les anciennes dans le
tier Parity. Cette méthode garantit que l’écriture des données est toujours écrite en miroir vu que c’est
plus performant notamment pour les charges de travail aléatoires.

Ce basculement entre le tier Mirror et Parity est fait grâce au ReFS Real Time Tiering.

Types de disques

- Disque HDD
- Disque SSD
- Disque NVMe
- Disques SAS interne à chaque nœud
- Disque SAS externe connecté via JBOD

NVMe (NonVolatile Memory express), est un disque ultrarapide qui utilise l’interface de connexion PCI
express (PCIe) pour offrir plus de rapidité, contrairement aux SSD qui utilisent les bus SATA ou SAS, par
exemple.

Tiering et les Storage Spaces

Il est possible de mixer différents types de technologies de stockage au sein des Storage Pool, c’est-à-
dire mixer les disques flash, et des disques magnétiques par exemple.
Ce qui permet de mixer du HDD, SSD et NVMe avec l’algorithme tiering qui va répartir les données en
fonction de leur nature :

Donnée Disque
Chaude SSD
Froide HDD
Cache NVMe

Il est possible d’avoir plusieurs scénarios :


Disque SSD + HDD : dans ce cas, Storage Space Direct va automatiquement utiliser les disques SSD
pour la partie Cache et les disques HDD seront utilisés pour le stockage de données (froide et chaude).

Disques SSD + HDD + NVMe : dans ce scénario, Storage Space Direct va utiliser les disques NVMe de
manière automatique pour la partie Cache, il utilisera les disques SSD pour les données chaudes et les
HDD pour les données froides.

Dans cette configuration spécifique, Storage Space Direct va automatiquement créer deux stockages
tiers :
- Performance
- Capacity

Recommandations réseau

Aspect très important, le réseau entre les noeuds du cluster Storage Space Direct, cette technologie
demande une large bande passante afin d’avoir les performances attendues.

Il est recommandé d’avoir au moins deux cartes réseau 10 GbE entre les noeuds du cluster.

L’utilisation de RDMA est recommandée également ce qui allégera la sollicitation du CPU.

Le RDMA peut gérer deux types de cartes :


- RoCE : RDMA over Converged Ethernet est un protocole réseau qui permet d’utiliser RDMA via le
protocole Ethernet.

42
LP ISVD Virtualisation des systèmes 2017-2018

- iWRAP : Wide Area RDMA Protocol est un protocole réseau qui utilise RDMA pour le transfert des
données via le réseau.

Démarche de la mise en place

Voici les étapes qui vont permettre de mettre en place une architecture de stockage avec les Storage
Spaces Direct :

- Deux serveurs avec la même configuration matériels sous Windows Server 2016.
- Les 2 noeuds doivent être joints à un domaine Active Directory.
- Utilisation de PowerShell pour la création, configuration et l’administration.
- Installation de la fonctionnalité FailOver Clustering ainsi que le rôle serveur de fichiers sur les
deux noeuds.

Étape 1 :

Une fois les serveurs prêts pour l’installation, il faut commencer par tester et valider la configuration du
cluster.
Le test cluster est particulier pour un cluster Storage Space Direct, il faut passer la commande
PowerShell muni des paramètres suivants :

Test-Cluster -Node Noeud1,Noeud2 -Include ”Storage Spaces


Direct”,”Inventory”,”Network”,”System Configuration”

Étape 2

Une fois la configuration validée, il faut créer le cluster avec la commande suivante :

New-Cluster -Name STORAGE01 -Node Noeud1,Noeud2 -StaticAddress 192.168.2.50


-NoStorage

Attention à bien spécifier le paramètre -NoStorage qui est important ici pour le Storage Space Direct.

Étape 3 :

Une fois le cluster créé, il faut configurer le Quorum.

Avant d’aller à l’étape suivante, il faut s’assurer que tous les disques physiques sur les noeuds sont bien
vides et sans partitions.

Étape 4 :

Activation de Storage Space Direct en général avec la commande suivante :

Enable-ClusterStorageSpacesDirect

Cette commande peut varier en fonction des disques utilisés sur les noeuds.

Si vous avez du SSD + HDD il faut passer la commande suivante :

Enable-ClusterStorageSpacesDirect -CacheMode ReadWrite

Si NVMe + SSD :

Enable-ClusterStorageSpacesDirect -CacheMode ReadOnly

Cette commande active le Storage Space Direct et fait les tâches suivantes de manière automatique :

- Création d’un Pool de stockage avec un nom S2D on Cluster1.


- Configure le cache Storage Space Direct.
- Crée deux tiers par défaut (Capacity et performance).

Étape 5 :

43
LP ISVD Virtualisation des systèmes 2017-2018

Une fois le Storage Space Direct activé, il reste à créer les volumes qui seront basés sur le Storage Pool
créé automatiquement lors de l’activation à l’étape 4 de Storage Space Direct.
Possibilité de le faire avec la commande PowerShell suivante (ceci est un exemple, pensez à modifier les
valeurs en fonction de votre contexte). Cette commande crée un disque virtuel en Mirror :

New-Volume -StoragePoolFriendlyName ”S2D*” -FriendlyName Vdisk02 -FileSystem


CSVFS_ReFS -StorageTierfriendlyNames Performance -StorageTierSizes 400Go

Étape 6 :

Une fois le disque virtuel partagé, il faut stocker les machines virtuelles sur le stockage CSV et nous
obtenons une infrastructure hyperconvergée.

10.Hyper-V Over SMB

Pour cette partie de mise en œuvre, nous aurons besoin des serveurs suivants :

Nom du serveur Rôle


CD01 Contrôleur de domaine
VH01 Hyperviseur HyperV
SRVSMB01 Serveur de fichiers (SMB)

Préparation du serveur SMB

La configuration du serveur SRVSMB01 peut commencer avec les étapes suivantes :

- Renommage du serveur
- Configuration IP
- Jonction au domaine
- Ajout du rôle serveur de fichiers

Renommage du serveur

Afin de renommer le serveur, appliquez la commande PowerShell suivante :

Rename-Computer SRVSMB01

Configuration IP

Le serveur doit avoir la configuration IP suivante :

IP : 192.168.2.4 /24
Passerelle : 192.168.2.254
DNS : 192.168.2.1
Le serveur doit être joint au domaine LAB.com

Ajout du rôle de serveur de fichiers

Une fois installé, le serveur SRVSMB01 est dans la capacité de créer des partages SMB3.

Création du partage SMB

Depuis le Gestionnaire de serveur, naviguez sur Services de fichiers et de stockage Partages

Pour lancer l’assistant de création de partage SMB, cliquez sur Pour créer un partage de fichiers,
démarrez l’Assistant Nouveau partage.

L’assistant de création de partage s’ouvre :

Sélectionnez Partage SMB Applications.


C’est ce qui permet la prise en charge d’Hyper-V et aussi certaines applications de base de données.

44
LP ISVD Virtualisation des systèmes 2017-2018

Sélectionnez le chemin et l’emplacement. Dans cet atelier le chemin sera sur le volume C :. Bien entendu
en production, il faudra avoir un disque autre que le lecteur C:\.

Nommez le partage, le chemin d’accès local au partage sera créé automatiquement.


Notez également le chemin d’accès distant au partage via le réseau qui est créé aussi automatiquement.

Il est possible de configurer des paramètres supplémentaires pour le partage.

Il est possible également de configurer les autorisations au niveau de ce partage (donner des
restrictions, etc.) :

Cliquez sur Créer afin de lancer la création du partage :

La création du partage est terminée avec succès à ce stade :

L’existence du partage SMBSHARE peut être vérifiée dans le Gestionnaire de serveur Services de
fichiers et de partage Partages :

Stockage des machines virtuelles sur le partage SMB

Une fois le partage SMB créé, il faut vérifier que l’accès en lecture/écriture est possible depuis
VH01.lab.com :

Avant d’aller plus loin, il faut également donner les droits aux hyperviseurs VH01.lab.com et
VH02.lab.com d’écriture et de lecture au niveau de ce partage, car c’est avec ces droits là que
l’hyperviseur pourra stocker les machines virtuelles et aussi les lire.

Effectuez un clic droit sur le partage SMBSHARE puis cliquez sur Propriétés :

Cliquez sur Personnaliser les autorisations :

Cliquez ensuite sur Ajouter :

Cliquez ensuite sur Sélectionnez un principal :

Ne pas oublier de spécifier dans Types d’objets les objets ordinateurs.

Ajoutez l’hyperviseur VH01.lab.com et cliquez sur OK :

Configurez les autorisations comme ci-dessous et cliquez sur OK :

Cliquez sur Appliquer pour mettre en place les nouvelles autorisations :

À ce stade, l’hyperviseur VH01.lab.com est configuré pour lire et écrire sur ce partage, ce qui lui
permettra d’y stocker ces machines virtuelles.

Configuration d’Hyper-V pour le stockage des machines virtuelles sur le partage SMB

Dans les paramètres d’Hyper-V, il reste à spécifier le chemin d’accès réseau du stockage SMB.
Pour les disques virtuels :
Et des fichiers des machines virtuelles :

Une fois configuré, il est possible de créer une machine virtuelle en utilisant le PowerShell :

$VM03 = "VM03SMB"
$CRAM = 512MB
$VM03VHD = 10GB
$VMLOC = "\\srvsmb01\SMBSHARE"
New-VM -Name $VM03 -Path $VMLOC -MemoryStartupBytes $CRAM -NewVHDPath
$VMLOC\$VM03.vhdx -NewVHDSizeBytes $VM03VHD

Une fois créée, il est possible de vérifier le stockage de la machine virtuelle sur le partage SMB en allant
directement sur le partage. On retrouve la machine virtuelle stockée avec son disque dur virtuel et ses
fichiers de configuration :

Il est possible de vérifier au niveau de la machine virtuelle.

La machine virtuelle est bien présente au niveau du stockage SMB.

45
LP ISVD Virtualisation des systèmes 2017-2018

11.Conception d’un cluster Hyper-V en Workgroup

La démarche de Microsoft vise à s’affranchir de l’Active Directory pour la construction d’un cluster Hyper-
V en cas de nécessité. Chose qu’on ne pouvait pas faire sous Windows Server 2012 R2.

Avec Windows Server 2016, il est possible désormais de créer un cluster en Workgroup, c’est-à-dire que
les noeuds du cluster sont en Workgroup et ne sont pas joints à un domaine Active Directory.

Avec Windows Server 2016, il est possible de créer un cluster avec trois configurations différentes :

- Création d’un cluster avec un domaine Active Directory simple : c’est ce qu’on a connu
jusqu’à présent, c’est-à-dire que la création du cluster va se baser sur un domaine Active
Directory.
- Création d’un cluster multidomaine : cette configuration offre la possibilité de créer un
cluster dans lequel les nœuds de ce dernier sont dans des domaines Active Directory différents.
- Création d’un cluster en WorkGroup : cette configuration permet de créer un cluster sans
domaine Active Directory, les nœuds du cluster sont en Workgroup.

Concept

Le concept du cluster sans Active Directory peut être intéressant pour un cluster SQL Server par exemple
ou encore Hyper-V.

Microsoft enlève la dépendance de l’Active Directory pour la construction d’un cluster, bien entendu pour
certains services ce n’est pas recommandé à cause de l’absence du domaine Active Directory donc
l’absence de Kerberos, on pense notamment aux clusters de serveurs de fichiers pour les partages SMB.

Pour les clusters Hyper-V, c’est supporté mais non recommandé pour l’instant. De plus, les clusters
Hyper-V en Workgroup ne supportent pas Live Migration (migration à chaud), mais ils supportent tout de
même Quick Migration.

La mise en place d’un cluster en Workgroup est extrêmement simple, mais il faut respecter plusieurs
prérequis avant d’entamer l’implémentation.
Les prérequis pour implémenter un cluster en Workgroup sont les suivants :

- Tous les noeuds doivent être sous Windows Server 2016.


- Tous les serveurs doivent avoir la fonctionnalité Cluster à basculement d’installée.
- Les serveurs doivent avoir le matériel certifié pour Windows Server 2016.
- Le cluster doit être validé par le test de validation du cluster.
- Tous les noeuds doivent être dans le même WorkGroup (même nom).
- Un stockage partagé entre les deux noeuds doit être disponible comme vu précédemment.
- Chaque noeud doit avoir le même suffixe DNS.

Configuration du cluster en Workgroup

Dans ce cas, il sera configuré un cluster de deux noeuds (VH01) et (VH02) en Workgroup, ces deux
serveurs ont été remis à zéro.

Dans notre cas, nous avons deux serveurs VH01 et VH02 fraîchement réinstallés et configurés au niveau
TCP/IP.
(IP / DNS), ils sont bien entendu sur le même réseau et peuvent se joindre mutuellement.

Étape 1 : création d’un utilisateur local Clus sur les deux noeuds, et mettre cet utilisateur dans le groupe
Administrateur local.

Le compte local doit être le même sur les deux noeuds, son mot de passe doit être le même également
sur les deux noeuds.

Étape 2 : vu qu’on n’utilise pas de compte administrateur Builtin local, il faut fixer la clé de registre
suivante à 1 :

HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System\
LocalAccountTokenFilterPolicy

46
LP ISVD Virtualisation des systèmes 2017-2018

Pour cela, il est possible de le faire via l’éditeur de registre en interface graphique, ou alors en
PowerShell comme ceci :

new-itemproperty -path
HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System -Name
LocalAccountTokenFilterPolicy -Value 1

Étape 3 : création du cluster en Workgroup, deux façons de le faire, en PowerShell ou en interface


graphique.

New-Cluster -Name WorkGroupCluster01 -Node VH01.lab.fr, VH02.lab.fr


-AdministrativeAccessPoint DNS

Une fois terminée, il est possible de se rendre dans la MMC cluster à basculement et constater que le
cluster en Workgroup WorkGroupCluster01 est créé, comme ceci :

Vérification avec quelques commandes PowerShell :


Affichage du cluster avec Get-Cluster :

Affichage des ressources du cluster : Get-ClusterResource :

12. System Center Virtual machine Manager

Virtual Machine Manager permet de centraliser l’administration de l’infrastructure de virtualisation,


améliore le taux d’utilisation des machines hôtes et optimises les ressources prises en charge par les
plates-formes de virtualisation Microsoft, VMware et Citrix.

Il est possible depuis la console Virtual Machine Manager de créer des VM et de créer un serveur
d’administration VMM à haut niveau de disponibilité.

Pour plus d’information :


https://technet.microsoft.com/library/gg610610.aspx

Installation d'un serveur d'administration VMM à haut niveau de disponibilité


https://technet.microsoft.com/fr-fr/library/gg610675.aspx

Vous trouverez également sur le site de Microsoft Technet toutes les infos utiles pour Hyper-V
https://technet.microsoft.com/fr-fr/library/hh846766(v=ws.11).aspx

47

Vous aimerez peut-être aussi