Virtualisationet Cloud Computing

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 72

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/355186796

Virtualisation et Cloud Computing

Book · October 2021

CITATIONS READS

0 14

1 author:

Ishak H.A Meddah


Ecole Superieure en Informatique Sidi Bel Abbes
16 PUBLICATIONS   44 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Patterns Mining View project

Process Mining in CLoud Computing View project

All content following this page was uploaded by Ishak H.A Meddah on 12 October 2021.

The user has requested enhancement of the downloaded file.


Département : Second Cycle

Laboratoire d’Informatique ESI-SBA

Polycopié pédagogique

Titre

Virtualisation et Cloud Computing (VCL)

Cours destiné aux étudiants

- 3ème Année Second Cycle Spécialité Systèmes d’Informations et web


- 3ème Année Second Cycle spécialité Ingénierie des Systèmes Informatique

Dr. Ishak H.A MEDDAH

Année : 2021
Tables des matières
Introduction Générale………………………………………………………………………..05

Chapitre I : Introduction à la Virtualisation


I.1. Introduction……………………………………………………………………………….06
I.2. Définition…………………………………………………………………………………06
I.3. Usages…………………………………………………………………………………….06
I.4. Avantages…………………………………………………………………………………07
I.5. Inconvénients……………………………..………………………………………………07
I.6. Principaux Acteurs………………………..………………………………………………08
I.7. Les types de la Virtualisation…...……………...…………………………………………08
I.7.1. Virtualisation Complète…………………………………………………………08
I.7.2. Para-Virtualisation………………...……………………………………………09
I.7.3. Les Isolateurs………………………………………………………………...…09
I.8. Machines Virtuelles………………………………………………………………………10
I.8.1. Définitions……………………………………………………………………....10
I.9. Domaines d’application…………………………………………………………………...12
I.9.1. Virtualisation de bureaux………………………………………………………..12
I.9.2. La virtualisation d’applications…………………………………………………13
I.9.3. Virtualisation d’infrastructure…………………………………………………..13

I.10. Conclusion………..……………………………………………………………………..14

Chapitre II : Les Hyperviseurs


II.1.Introduction…..…………………………………………………………………………..16
II.2 Définitions………………………………………………………………………………..16
II.3 Types d’hyperviseurs………………………………………………………………….…16
II.3.1 Hyperviseur de type 1…………………………………………………………..16
II.3.2 Hyperviseur de type 2…………………………………………………………..17
II.4 Critères de virtualisation pour un hyperviseur……………………………………………18
II.4.1. Équivalence…………………………………………………………………….18
II.4.2. Contrôle des ressources………………………………………………………..18
II.4.3. Efficacité……………………………………………………………………….19
II.5. Théorèmes………………………………………………………………………………..19
II.6. Rôle de l’hyperviseur…………………………………………………………………….20
II.6.1 Emulation……………………………………………………………………….20
II.6.2. Isolation………………………………………………………………………..21
II.6.3. Allocation………………………………………………………………………21
II.6.4. Encapsulation…………………………………………………………………..21
II.7. Exemples d’hyperviseurs………………………………………………………………...21
II.7.1. Vmware ESX…………………………………………………………………..21
II.7.2. Citrix XEN……………………………………………………………………..22
II.7.3. Microsoft Hyper-V……………………………………………………………..23
II.7.4. Proxmox VE (Proxmox Virtual Environment) ………………………………..24
II.7.5. Comparaison des hyperviseurs…………………………………………………25
II.8. Conclusion……………………………………………………………………………….25
Chapitre III : Virtualisation de Stockage
III.1 Introduction………………………….………………………….……………………….26
III.2 Définition de la virtualisation de stockage………………………….……………………26
III.3 Avantages de la virtualisation de stockage………………………….……………………26
III.4. Les architectures de stockage………………………….…………………………….…..27
III.4.1. Direct Attached Storage (DAS) ………………………….……………………27
III.4.2. SAN (Storage Area Network) ……………………….………………………..28
III.5. Gestion du stockage………………………….…………………………………………30
III.6. Protocoles de stockage SAN………………………….…………………………………30
III.6.1. iSCSI (Internet Small Computer System Interface) ………………………….30
III.6.2. Fibre Channel………………………………………….………………………31
Chapitre IV : Virtualisation des Réseaux
IV.1. Introduction…...………………….……………………………………………………..32
IV.2. Principe de Network Plans………………………………………………………………32
IV.3. Réseau VLAN…………………………………………………………………………..32
IV.4. Les Avantages d’un VLAN……………………………………………………………..33
IV.5. La technique des VLAN………………………………………………………………...33
IV.6. Les types des VLAN……………………………………………………………………33
IV.6.1. Le VLAN de niveau 1…………………………………………………………34
IV.6.2. Le VLAN de niveau 2…………………………………………………………34
IV.6.3. Le VLAN de niveau 3……………………………………………..………….34
IV.7. Le réseau VPN…………………………………………………………………………..35
IV.8. Principe de fonctionnement des VPN …………………………………………………..35
IV.8.1. Concept du VPN………………………………………………………………35
IV.8.2. Principe général VPN…………………………………………………………36
IV.9. Fonctionnalités des VPN………………………………………………………………..37
IV.9.1. Le VPN d’accès……………………………………………………………….37
IV.9.2. L’intranet VPN………………………………………………………………..37
IV.9.3. L’extranet VPN……………….……………………………………………….37
IV.10. Conclusion……………………………………………………………………………..37
Chapitre V : Cloud Computing
V.1.Introduction………………………………………………………………………………38
V.2. Historique………………………………………………………………………………..38
V.3.Définition du Cloud Computing………………………………………………………….49
V.4.Les caractéristiques du Cloud Computing………………………………………………..41
V.4.1.Accès libre-service et à la demande…………………………………………….41
V.4.2.Accès ubiquitaire au réseau……………………………………………………..41
V.4.3Mise en commun des ressources………………………………………………...41
V.4.4.Elasticité rapide………………………………………………………………...41
V.4.5.Service mesuré…………………………………………………………………41
V.5.Modèles de services………………………………………………………………………42
V.5.1.SaaS (Software as a Service) …………………………………………………..42
V.5.2.PaaS (Platform as a Service) …………………………………………………...42
V.5.3.IaaS (Infrastructure as a Service) ………………………………………………43
V.6.Modèles de déploiement du Cloud……………………………………………………….43
V.6.1.Le Cloud public…………………………………………………………………43
V.6.2.Cloud privé……………………………………………………………………..44
V.6.3.Le Cloud Communautaire………………………………………………………45
V.6.4.Cloud hybride…………………………………………………………………..46
V.7.Les avantages et les inconvénients du Cloud…………………………………………….46
V.7.1.Avantages……………………………………………………………………....46
V.7.2.Les inconvénients du Cloud Computing ………………………………………47
V.8.Les principaux acteurs du Cloud Computing…………………………………………….47
V.9.Cloud et la virtualisation……………………………………………………………..…..48
V.10.Conclusion…………………………………………………………………………….48

Chapitre VI : la Sécurité dans le Cloud Computing


VI.1. Introduction…………………………………………………………………………….49
VI.2. Les vulnérabilités dans la sécurité du Cloud……………………………………………50
VI.2.1. La perte de maîtrise de gouvernance………………………………………….51
VI.2.2. Isolement des environnements et des données : ………………………………51
VI.2.3. Risques de conformité……………………………………………………...…51
VI.2.4. La publication des interfaces de gestion………………………………………51
VI.2.5. La protection des données…………………………………………………….51
VI.2.6. La suppression dangereuse ou incomplète des données………………………52
VI.2.7. Les utilisateurs malveillants…………………………………………………..52
VI.3. Les risques classiques : application sur le Cloud……………………………………….52
VI.3.1. L’hameçonnage……………………………………………………………….52
VI.3.2. Personnel du fournisseur Cloud avec un accès privilégié ……………………54
VI.3.3. L’origine des données ………………………………………………………..54
VI.4. La colocation : un risque supplémentaire pour la sécurité dans le Cloud……………….54
VI.4.1. Le cryptage des données………………………………………………………55
VI.4.2. Solutions d’étanchéité logiques……………………………………………….56
VI.5. Les différentes solutions………………………………………………………………..56
VI.5.1. Plateforme de confiance basée sur le TPM……………………………………56
VI.5.2. Cryptage des données : applications et limites………………………………..58
VI..5.3. Le HAIL : une solution RAID pour le Cloud…………………………………59
VI.6. Conclusion……………………………………………………………………………...61
Conclusion Générale…………………………………………………………………………62
Activités Pratiques………….…………………….…………………………………………..63
Activité Pratique 1 : Projet sur la virtualisation……………………………………………….64
Activité Pratique 2 : Projet sur le Cloud Computing………………………………………….68
Bibliographie
Introduction

Introduction
Le présent document présente un cours d’un module intitulée « Virtualisation et Cloud
Computing (VCL) », enseigné à l’Ecole Supèrieure en Informatique de Sidi Bel Abbes et
destiné aux étudiants de la troisième année Second cycle, la spécialité Systèmes
d’Informations et Web et la spécialité Ingénierie des Systèmes Informatique.
L’objectif de ce cours est d’aider les étudiants pour :
 Une compréhension générale sur les principes de la virtualisation ;
 Une Manipulation des différents principaux concepts de la virtualisation via
différents outils pratiques ;
 Découverte des notions du Cloud Computing et ses applications liées à ce domaine ;
 Connaissance des plateformes Cloud les plus connues.
Pour atteindre nos objectifs, nous sommes essayés de traiter ce travail sous plusieurs aspects
et de synthétiser les informations les plus pertinentes provenant de diverses sources (livres,
notes de cours, articles, sites Web...).

5
Chapitre I : Introduction à la Virtualisation

Chapitre I : Introduction à la Virtualisation


I.1. Introduction
La virtualisation n'est pas un concept nouveau, elle remonte aux années 1960, lorsque
l'informatique n'en était qu'à ses balbutiements et que les ordinateurs étaient plus ou moins
répandus dans les entreprises. Dans le passé, la virtualisation concernait uniquement les
processeurs grand public, qui sont des ordinateurs puissants capables de faire beaucoup de
choses. Compte tenu de la puissance de calcul élevée de ces gros appareils, il était important
d'optimiser leur utilisation afin d'éviter des performances déraisonnables.
I.2. Définition La virtualisation est un mécanisme informatique dans lequel plusieurs
systèmes, serveurs ou applications s'exécutent sur un seul serveur physique. La virtualisation
est une partie importante de la technologie du cloud computing.123 (Danny, 2013)
La virtualisation consiste à exécuter un ou plusieurs systèmes d'exploitation ou applications
en tant qu'application simple sur un ou plusieurs ordinateurs ou serveurs et systèmes
d'exploitation, plutôt que d'installer un périphérique sur chaque périphérique4. Ces machines
virtuelles sont appelées serveurs privés virtuels (VPS) ou environnements virtuels. (Virtual
Environment ou VE). (Gelas, 2012) (F.Z. Filali 2020) (Zertal, 2019)
La virtualisation nous permet d'ajouter une couche abstraite pour séparer le système
d'exploitation du matériel afin de mieux utiliser les ressources de traitement et d'offrir plus
de flexibilité.
La virtualisation repose sur trois principaux éléments : (Grassa, 2014) (Manaa, 2016) 5
 Ressources informatiques abstraites.
 Fournir des ressources pour une variété d'outils qui peuvent être utilisés dans de
nombreux environnements virtuels.
 Créer un environnement virtuel.
La virtualisation repose sur les mécanismes suivants :
 Le système d'exploitation principal (« système hôte ») est installé sur un seul serveur
physique. Ce système agit comme une maison pour d'autres systèmes d'exploitation.
 Un logiciel de virtualisation (appelé « hyperviseur ») est installé sur le système
d'exploitation principal. De cette façon, vous pouvez créer des environnements

1
https://abtec.fr/virtualisation-definition/
2 http://yannickfeujiointernetgratuit.unblog.fr/2014/01/03/la-virtualisation-quest-ce-que-cest/comment-page-1/
3
https://www.memoireonline.com/01/19/10545/m_Migration-des-serveurs-physiques-vers-une-infrastructure-
virtuelle10.html
4
http://www.qsp-systems.com/la-virtualisation-mode-demploi/
5 https://doc.ubuntu-fr.org/virtualisation

6
Chapitre I : Introduction à la Virtualisation

autonomes en installant d'autres systèmes d'exploitation ("invités"). Ces


environnements sont des "machines virtuelles".
 Le système invité est installé dans une machine virtuelle qui fonctionne
indépendamment des autres systèmes invités dans d'autres machines virtuelles.
Chaque machine virtuelle a accès aux ressources (mémoire, espace de stockage, etc.)
du serveur physique. (Danny, 2013)
I.3. Usages
Différents types d'applications s'appliquent par la virtualisation :
• Installez plusieurs systèmes d'exploitation sur un serveur,
• Développer un programme de réaction rapide en cas d'accident
• le test est testable sur plusieurs systèmes dans les étapes de développement,
• Augmenter l'émergence du système d'information. (Danny 2013)
I.4. Avantages (Zertal, 2019)
Offres virtuelles et spécifications :
• Stabilisation et simplification d'un jardin de serveurs dans les affaires : les entreprises ne
doivent plus acheter un serveur réel pour chaque application,
• Coûts matériels informatiques
• Possibilité d'installer plusieurs systèmes (Windows, Linux) sur le même périphérique,
• Portabilité du serveur : le périphérique virtuel peut être transféré d'un serveur réel à un
autre (par exemple, s'il a besoin de plus de ressources),
• accélérer le lancement de systèmes et d'applications dans les entreprises,
Gérer • Simplifier tous les serveurs,
• Réduisez la facture d'alimentation, réduisant le nombre de serveurs physiques.
I.5 Inconvénients (Zertal, 2019)
Certains défauts standard sont disponibles :
• Coûts importants : Travaux de structure virtuelle correcte, la société doit être investie dans
un serveur réel avec plusieurs processeurs et de nombreuses mémoire.
• Panne généralisée : si des serveurs réels tombent, les machines virtuelles tombent
également,
• Vulnérabilité généralisée : Si les fraudeurs sont de retour ou exposés à la sécurité, des
machines virtuelles ne peuvent plus être plus longues. La couche logicielle virtuelle est
soulevée, augmentant l'impact de l'attaque spatiale.

7
Chapitre I : Introduction à la Virtualisation

I.6. Principaux Acteurs


Parmi les acteurs de la virtualisation sur le marché, on retrouve : (Zertal, 2019)
 VMware,
 HyperV de Microsoft,
 Citrix (Xen).
 KVM (Open Source)

I.7. Les types de la Virtualisation


I.7.1. Virtualisation Complète
La virtualisation dite complète vous permet d'exécuter n'importe quel système d'exploitation
en tant qu'invité dans une machine virtuelle. Pour les utilisateurs finaux, ce type de
virtualisation est la solution la plus simple et la plus pratique. (Grassa, 2014)

Figure I.1 Virtualisation Complète (Grassa, 2014)

I.7.1.1. Principe : L'hyperviseur crée un environnement virtuel complet qui simule


essentiellement un nouvel ordinateur avec du "matériel contrefait". À quelques exceptions
près, seul le système d'exploitation invité (installé sur la machine virtuelle) communique
avec cette machine virtuelle simulée, donc l'environnement virtuel est désactivé.

I.7.1.2. Limitations : Avec ce type de virtualisation, vous pouvez virtualiser des systèmes
d'exploitation conçus avec une architecture matérielle similaire au processeur hôte physique.
Par exemple, un ordinateur équipé d'un processeur Intel x86 ne peut pas imiter un système
d'exploitation conçu pour fonctionner sur l'architecture PowerPC.

8
Chapitre I : Introduction à la Virtualisation

I.7.1.3. Quelques hyperviseurs de virtualisation complète :

- Virtual Box
- VMWare Player, VMWare Workstation
- Parallels Desktop for Windows et Linux
- KVM

I.7.2. Para-Virtualisation : La Paravirtualisation fait intervenir un hyperviseur.


Contrairement aux systèmes de machines virtuelles traditionnels, où la virtualisation est
transparente, il s'agit du noyau auquel les systèmes invités sont ajoutés. Avec la
paravirtualisation, le système invité doit être conscient qu'il s'exécute dans un environnement
virtuel, c'est-à-dire un noyau personnalisé est utilisé. Ce type de virtualisation offre des
performances supérieures à la virtualisation complète. (Grassa, 2014)

Figure I.2 Para-Virtualisation (Grassa, 2014)

I.7.2.1. Quelques hyperviseurs de virtualisation assisté :


- XEN
- VMWare ESX/ESXi
- Hyper-V (Microsoft)
- xVM

I.7.3. Les Isolateurs


L'isolateur est un programme qui sépare l'exécution du programme en termes de contexte ou
de zones d'exécution. Ainsi, l'isolateur permet à un programme d'être exécuté plusieurs fois
dans plusieurs instances (plusieurs modes exécutables) même s'il n'a pas été conçu pour le

9
Chapitre I : Introduction à la Virtualisation

faire. Cette solution est très performante car peu focalisée (temps passé sur un système à ne
rien faire d'autre qu'à s'autogérer), mais les environnements virtuels ne sont pas totalement
isolés. (Grassa, 2014) (Zertal, 2019)
Il y a donc de la performance, mais on ne peut vraiment pas parler de simulation de système
d'exploitation virtuel. Ce n'est que sur les systèmes Linux que les isolateurs sont en fait
constitués de nombreuses parties et peuvent prendre de nombreuses formes différentes.
Par exemple : Linux-VServer (isolation des processus en espace utilisateur) ; chroot
(isolation changement de racine) ; BSD Jail (isolation en espace utilisateur) ; OpenVZ : libre,
(partitionnement au niveau noyau sous Linux) ;
LXC : libre, (usage des Cgroups du noyau Linux)

Figure I.3 les Isolateurs (Grassa, 2014)

I.8. Machines Virtuelles


I.8.1. Définitions
Une machine virtuelle, également appelée VM, possède de nombreuses fonctions similaires
à une machine physique.
Le système d'exploitation est pris en charge par un certain nombre de ressources et est
configuré de sorte que les applications sur la machine virtuelle puissent demander l’accès.
(Dumont, 2016) (Zertal, 2019)

10
Chapitre I : Introduction à la Virtualisation

Figure I.4 Machine Virtuelle (Zertal, 2019)


En fait, une machine virtuelle n'est qu'un ensemble de fichiers qui décrivent et contiennent
une machine virtuelle. Les principaux fichiers qui composent une machine virtuelle sont :
Fichier de configuration : Décrit les ressources que la machine virtuelle peut utiliser et
répertorie les machines virtuelles qui composent la machine virtuelle (processeur, mémoire,
stockage, réseau, CD-ROM, etc.).
• Fichiers de disque dur virtuel.
• Autres fichiers de rapport, captures d'écran...
I.9. Domaines d’application
Vous trouverez ci-dessous quelques exemples de la façon dont ces techniques de
virtualisation peuvent être appliquées dans des domaines où elles sont souvent utilisées. Les
services d'hébergement sont traditionnellement divisés en deux catégories : l'hébergement
dédié et l'hébergement partagé. Avec l'hébergement dédié, le fournisseur configure un ou
plusieurs serveurs en fonction de ses besoins. Selon la situation, les nœuds peuvent donner
à leurs clients plus d'indépendance dans la configuration et le fonctionnement de leurs
serveurs, mais techniquement rien ne s'oppose à un contrôle complet. Avec l'hébergement
mutualisé, le fournisseur utilise le même serveur pour plusieurs clients. Utilise différents
systèmes de séparation (séparation) pour maintenir une étanchéité claire entre ces
environnements. Le partage des ressources du serveur peut certainement réduire les coûts,
ce qui est particulièrement bénéfique pour les sites Web à faible trafic. Mais l'hébergement
mutualisé simple présente plusieurs inconvénients : (Grassa, 2014) (Zertal, 2019)
Les ressources du serveur étant difficiles à allouer, la qualité de service de chaque site peut
être affectée par l'augmentation du trafic ou des cycles d'application sur d'autres sites. La
configuration du logiciel est unique et est déterminée par l'hôte. Il choisit généralement le
même serveur HTTP, mais choisit souvent les mêmes outils d'administration et bases de
données. Une simple installation d'une bibliothèque spécifique à la demande du client n'est

11
Chapitre I : Introduction à la Virtualisation

généralement pas possible. Plus important encore, la modification de la configuration


globale est interdite. Il existe les domaines de virtualisation suivants :
I.9.1. Virtualisation de bureaux
La virtualisation des postes de travail (ou virtualisation des postes de travail) prend en charge
la mise en place d'une infrastructure « client léger » pour améliorer l'accès, la gestion, les
coûts d'exploitation et la flexibilité. L'ensemble de l'environnement de bureau peut s'exécuter
dans une machine virtuelle sur le serveur du centre de données et est accessible aux
utilisateurs finaux à partir de n'importe quel ordinateur léger ou client connecté au réseau
d'entreprise. Cette solution permet au service informatique de gérer de manière centralisée
les ressources et les données informatiques de bureau, d'intégrer des machines virtuelles et
d'optimiser l'utilisation des ressources dans le centre de données. Cela permet aux utilisateurs
d'accéder à l'ensemble de l'environnement de travail depuis n'importe où et depuis n'importe
quel client. (Filali, 2020) (Grassa, 2014) (Zertal, 2019)

Figure I.9. Virtualisation de Bureaux (Grassa, 2014)


I.9.2. La virtualisation d’applications
La virtualisation des applications est une technologie logicielle qui améliore la portabilité et
la compatibilité des applications en les séparant du système d'exploitation sur lequel elles
s'exécutent. Cela inclut le verrouillage du programme et l'exécution du système dans un
environnement isolé. (Filali, 2020)
La virtualisation des applications nécessite l'ajout d'une couche logicielle supplémentaire
entre une application particulière et le système d'exploitation. L'objectif est de suivre ou de
modifier tout accès aux fichiers ou à l'historique pour les diriger vers un emplacement
complètement transparent dans un emplacement virtuel. (Grassa, 2014)

12
Chapitre I : Introduction à la Virtualisation

Exemple :
Wine6 est un logiciel qui permet d'exécuter certains programmes Windows sous Ubuntu.

Figure I.10 Virtualisation d’applications (Grassa, 2014)


I.9.3. Virtualisation d’infrastructure
La virtualisation d’infrastructure regroupe : la virtualisation de réseaux, de stockage et de
serveurs.

Figure I.11 Virtualisation d’infrastructure (Grassa, 2014)

6
http://www.winehq.org/

13
Chapitre I : Introduction à la Virtualisation

1) La virtualisation de réseaux
De manière générale, la virtualisation des réseaux consiste à partager la même infrastructure
physique (vitesses de liaison, ressources CPU du routeur, etc.) au profit de plusieurs réseaux
virtuels isolés. Le VLAN (Virtual Local Area Network) est un réseau local qui regroupe
logiquement et non physiquement un groupe d'appareils. Puisqu'un VLAN est une unité
logique, il est créé et configuré dans le logiciel et non dans le matériel. (Filali,
2020) (Grassa, 2014) (Zertal, 2019)
2) La virtualisation de stockage
Dans une machine virtuelle, les données sont stockées sur un disque dur virtuel. Ce disque
dur est un fichier dans le système de fichiers hôte. La virtualisation du stockage vous permet
d'ajouter un périphérique de stockage supplémentaire sans interrompre le service. Regrouper
des disques durs avec des vitesses, des tailles et des fabricants différents. (Filali,
2020) (Grassa, 2014)
3) La virtualisation de serveurs
En général, la virtualisation des serveurs est un principe qui permet à plusieurs serveurs
virtuels de s'exécuter simultanément sur un seul serveur physique. Cette technologie permet
aux entreprises d'utiliser des serveurs virtuels au lieu de serveurs physiques. En faisant cette
virtualisation dans une même entreprise, le but est de mieux utiliser la capacité de chaque
serveur en agrégeant sa capacité. (Filali, 2020) (Grassa, 2014) (Zertal, 2019)
I.10.Conclusion
La virtualisation est un concept qui existe depuis une très bonne période, cette technologie
est utilisée afin de construire des machines virtuelles avec des performances égales aux
ordinateurs physiques, elle nous permet d’éviter d’utiliser toute une machine réelle, alors on
utilise uniquement ses performances.
Le chapitre suivant présente une généralité sur les hyperviseurs.

14
Chapitre II : Les Hyperviseurs

Chapitre II : les Hyperviseurs


II.I Introduction
La virtualisation est une technologie omniprésente dans les entreprises, mais elle peut
également être utilisée à la maison lors de la configuration d'un serveur à tester ou sur votre
appareil. La virtualisation est basée sur un système appelé hyperviseur.
II.2 Définitions
Hyperviseur : « Également appelé Gestionnaire de machines virtuelles (Virtual Machine
Monitor – VMM). C’est un programme de bas niveau requis pour fournir un accès des
ressources système aux machines virtuelles ». (Dumont, 2016)

Machine virtuelle du niveau système : une VM au niveau du système possède son propre
espace d'adressage mémoire, sa propre allocation de processeur et ses propres E/S de
périphérique à l'aide de son propre pilote de périphérique virtuel. (Zertal, 2019)

Machine virtuelle du niveau processus : une VM au niveau du processus s'exécute comme


une application normale dans le système d'exploitation hôte et prend en charge un seul
processus. (Zertal, 2019)

Il est créé au début de ce processus et détruit à la fin. Son objectif est de fournir un
environnement de programmation indépendant de la plate-forme qui résume les détails du
matériel ou du système d'exploitation sous-jacent et permet aux programmes de s'exécuter
sous la même forme sur n'importe quelle plate-forme. (Zertal, 2019)

Système d’exploitation invité (Guest OS) est le système d'exploitation chargé dans la
machine virtuelle. Il n'y a aucune restriction sur l'exécution du même invité sur plusieurs
machines virtuelles. (Zertal, 2019)

Système d’exploitation hôte (Host OS) : c'est le système principal qui fournit les ressources
informatiques du matériel sous-jacent pour prendre en charge la machine virtuelle invitée.
(Zertal, 2019)

II.3 Types d’hyperviseurs


Il existe principalement deux types d’hyperviseurs : hyperviseur de type 1 et hyperviseur de
type 2. (Dumont, 2016) (Zertal, 2019)

II.3.1 Hyperviseur de type 1

16
Chapitre II : Les Hyperviseurs

Un hyperviseur de type 1 est également connu sous le nom d’hyperviseur bare metal ou
d’hyperviseur natif.
Il s'agit d'un noyau système très léger et optimisé pour gérer l'accès du noyau du système
d'exploitation invité à l'architecture matérielle sous-jacente. Différents types de systèmes
d'exploitation peuvent s'exécuter dans des hyperviseurs de type 1, indépendamment du
système d'exploitation de l'hôte, ils sont donc portables.
Avantage : performance.

Inconvénient : déploiement initial contraignant et coûteux.


Exemple : Xen, Vmware ESXi, Microsoft Hyper-V, KVM.

Figure II.1 Architecture Hyperviseur de type 1(Zertal, 2019)

II.3.2 Hyperviseur de type 2


Un hyperviseur de type 2 est également appelé hyperviseur hébergé. Il connecte le système
d'exploitation invité et la machine réelle. L'hyperviseur s'exécute sur le système
d'exploitation hôte
Avantage : permet de faire cohabiter plusieurs OS hétérogènes sur une même machine
Inconvénient : les performances des machines virtuelles diminuent.

17
Chapitre II : Les Hyperviseurs

Exemple : Oracle VirtualBox, Parallels Desktop, Vmware Workstation.

Figure II.2 Architecture Hyperviseur de type 2(Zertal, 2019)

II.4 Critères de virtualisation pour un hyperviseur


Un gestionnaire de machine virtuelle doit disposer d'un ensemble de normes pour exécuter
ses fonctions d'hyperviseur. Ces normes sont : l'équivalence, le contrôle des ressources et
l'efficacité. (Zertal, 2019)

II.4.1. Équivalence
Un programme exécuté sous VMM doit présenter fondamentalement le même
comportement prédictif que lorsqu'il s'exécute directement sur la plate-forme matérielle
sous-jacente.
L’équivalence est parfois appelée fidélité (fidelity). (Zertal, 2019) (Grassa, 2014)

II.4.2. Contrôle des ressources

Le VMM doit avoir un contrôle complet des ressources matérielles réelles virtualisées pour
le système d’exploitation invité à tout moment.

18
Chapitre II : Les Hyperviseurs

Le contrôle de ressources est parfois appelé sureté (safety). (Zertal, 2019) (Grassa, 2014)

II.4.3. Efficacité
Un nombre impressionnant d’instructions machine doit être exécuté sans intervention du
VMM ou en d’autres termes par le matériel lui-même.
L’efficacité est parfois appelée performance. (Zertal, 2019) (Grassa, 2014)

II.5. Théorèmes
Ces théorèmes qui ont été présentés par les travaux des chercheurs de Popek et Goldberg
en 1974 constituent la base de la virtualisation.
Afin de dériver les théorèmes de virtualisation, qui fournissent des conditions suffisantes
(mais non nécessaires) à la virtualisation, les instructions d’un ISA ont été classifiées en 3
groupes différents :

• Instructions privilégiées : Ceux qui sont piégées (trap) si le processeur est en mode
utilisateur et ne sont pas piégées s’il est en mode système (mode superviseur).

• Instructions sensibles au contrôle : Ceux qui tentent de changer la configuration des


ressources dans le système (E/S).

• Instructions sensibles au comportement : Ceux dont le comportement ou le résultat dépend


de la configuration des ressources (le contenu des registres ou le mode du processeur).

Théorème 1
« Pour tout ordinateur de troisième génération classique, un VMM efficace peut être
construit si l’ensemble d’instructions sensibles pour cet ordinateur est un sous-ensemble de
l’ensemble d’instructions privilégiées. » (Zertal, 2019) (Grassa, 2014)

Intuitivement, le théorème indique que pour construire un VMM, il suffit que toutes les
instructions qui pourraient affecter le bon fonctionnement du VMM (instructions sensibles)
sont toujours piégées et contrôlées par le VMM. Cela garantit la propriété de contrôle des
ressources. (Zertal, 2019) (Grassa, 2014)

Les instructions non privilégiées doivent plutôt être exécutées de manière native (c’est-à-
dire, efficacement). La détention de la propriété d’équivalence est définie également.

Ce théorème fournit également une technique simple pour implémenter un VMM, appelé
virtualisation trap-and-emulate, plus récemment appelée virtualisation classique. Puisque

19
Chapitre II : Les Hyperviseurs

toutes les instructions sensibles se comportent normalement, tout ce que le VMM a à faire
est de piéger et d’émuler chacun d’entre eux. (Zertal, 2019) (Grassa, 2014)

Un problème connexe est celui de dériver des conditions suffisantes pour la virtualisation
récursive, c’est-à-dire les conditions dans lesquelles un VMM pouvant s’exécuter sur une
copie de lui-même peut être construit. (Grassa, 2014)

Théorème 2
« Un ordinateur de troisième génération classique est virtualisable récursivement si :

1. Il est virtualisable,
2. Un VMM sans aucune dépendance de synchronisation peut être construit pour cela. »
Certaines architectures, comme la x86 non assistée par matériel, ne remplissent pas ces
conditions, elles ne peuvent donc pas être virtualisées de manière classique.

Mais les architectures peuvent encore être entièrement virtualisées (dans le cas x86 au niveau
CPU) en utilisant différentes techniques comme la traduction binaire, qui remplace les
instructions sensibles qui ne génèrent pas les traps, parfois appelées instructions critiques.

Ce traitement supplémentaire rend toutefois le VMM moins efficace en théorie, mais les traps
matérielles ont un coût de performance non négligeable.

Un système de traduction binaire de mise en cache bien réglé peut atteindre des performances
comparables, par rapport à l’assistance matérielle x86 de première génération, qui ne faisait
que rendre intelligibles les instructions sensibles. (Grassa, 2014)

Théorème 3
« Un VMM hybride peut être construit pour n’importe quelle machine de troisième
génération dans laquelle l’ensemble des instructions sensibles à l’utilisateur est un sous
ensemble de l’ensemble des instructions privilégiées. »

II.6. Rôle de l’hyperviseur (Zertal, 2019) (Grassa, 2014)


L’hyperviseur a les fonctions suivantes : émulation, isolation, allocation, encapsulation.

II.6.1 Emulation
L’émulation est importante pour tous les systèmes d’exploitation invités. Le VMM doit
présenter un environnement matériel complet, ou machine virtuelle, pour chaque pile
logicielle, qu’il s’agisse d’un système d’exploitation ou d’une application.

20
Chapitre II : Les Hyperviseurs

Idéalement, le système d’exploitation et l’application ne savent pas qu’ils partagent des


ressources matérielles avec d’autres applications. L’émulation est la clé pour satisfaire la
propriété d’équivalence.

II.6.2. Isolation
L’isolation est importante pour avoir un environnement sûr et fiable. Grâce à l’abstraction
matérielle, chaque machine virtuelle doit être suffisamment séparée et indépendante des
opérations et activités des autres machines virtuelles.

Les erreurs qui se produisent dans une machine virtuelle unique ne doivent pas avoir
d’impact sur les autres, ce qui permet d’obtenir des niveaux élevés de sécurité et de
disponibilité. (Grassa, 2014)
II.6.3. Allocation
Le VMM doit allouer méthodiquement les ressources de la plateforme aux machines
virtuelles qu’il gère. Les ressources pour le traitement, la mémoire, les E/S réseau et le
stockage doivent être équilibrées pour optimiser les performances et aligner les niveaux de
service sur les besoins.
Grâce à l’allocation, le VMM satisfait la propriété de contrôle des ressources et, dans une
certaine mesure, la propriété d’efficacité.
II.6.4. Encapsulation
L’encapsulation permet à chaque pile logicielle (système d’exploitation et application) d’être
hautement portable, pouvant être copiée ou déplacée d’une plate-forme exécutant le VMM
à une autre. Dans certains cas, ce niveau ou cette portabilité permet même la migration de
machines virtuelles en cours d’exécution.
L’encapsulation doit inclure des informations d’état afin de maintenir l’intégrité de la
machine virtuelle transférée. (Grassa, 2014)
II.7. Exemples d’hyperviseurs
II.7.1. Vmware ESX
Fondée en 1998, VMware a été la première société à développer une solution de
virtualisation x86 disponible dans le commerce. En 1999, la société a lancé son premier
produit : Workstation 1.0, qui permettait aux développeurs de créer et de travailler avec des
machines virtuelles sur leurs postes de travail Windows ou Linux.

21
Chapitre II : Les Hyperviseurs

En 2001, ESX 1.0 et GSX 1.0 ont été publiés. ESX était un hyperviseur de type 1 et GSX
était un hyperviseur de type 2. Vmware détient jusqu’à aujourd’hui 85% du marché de
virtualisation.1 (Grassa, 2014)
VMware ESX est composé de :
• Vmkernel contient tous les processus nécessaires pour prendre en charge les machines
virtuelles et gérer les ressources matérielles et de disponibilité.
• Les services d’infrastructure, tels que le chronométrage et la journalisation, les intégrations
avec les outils de gestion VMware et d’autres modules tiers autorisés, tels que les pilotes
matériels et les outils de surveillance du matériel, peuvent également être exécutés dans
vmkernel.

Figure II.3 Vmware ESX (Grassa, 2014)


Les fonctionnalités de VMware ESXi sont :
• Chronométrage (time keeping),
• Journalisation (logging),
• Intégration de matériels tiers,
• Migration à chaud,
• Haute disponibilité et tolérance aux pannes.

II.7.2. Citrix XEN

1 https://www.vmware.com/

22
Chapitre II : Les Hyperviseurs

Débuté comme projet de recherche à la fin des années 1990 à l’Université de Cambridge,
dans le but de créer une plateforme efficace pour l’informatique distribuée. En 2002, le projet
est devenu un projet open source, permettant à quiconque de contribuer à l’amélioration des
fonctionnalités et des capacités.
Xen Source a été fondé en 2004 pour commercialiser l’hyperviseur Xen. En 2005, Red Hat,
Novell et Sun ont tous ajouté l’hyperviseur Xen à leurs offres de produits.
Deux ans plus tard, Citrix Systems a acquis XenSource pour compléter ses solutions de
livraison d’applications.

Figure II.4 Citrix XEN (Grassa, 2014)

Xen est Solution bare-metal et repose directement sur le matériel. Il a un système invité
spécial appelé Domaine 0 (Dom0) qui est démarré lorsque l’hyperviseur est démarré et
dispose de privilèges de gestion différents de ceux des autres systèmes invités.
Dom a un accès direct au matériel, et gère toutes les E/S pour les machines invitées
individuelles. (Grassa, 2014)
II.7.3. Microsoft Hyper-V
Microsoft a débuté dans l’espace de virtualisation avec Virtual Server en 2005, après avoir
acquis la solution de Connectix quelques années plus tôt.

23
Chapitre II : Les Hyperviseurs

Figure II.5 Microsoft Hyper-V (Grassa, 2014)

Virtual Server était un hyperviseur de type 2, et il est toujours disponible gratuitement


aujourd’hui.
Microsoft Hyper-V a été publié en 2008 en tant que partie installable du système
d’exploitation Windows Server 2008.
Hyper-V est un hyperviseur de type 1 car il s’exécute directement sur le matériel. Plutôt que
des invités, les charges de travail virtualisées sont appelées partitions.
Similaire au modèle Xen, Hyper-V nécessite une partition parent spéciale ayant un accès
direct aux ressources matérielles.
Comme Dom0, la partition parent exécute un système d’exploitation, dans ce cas, Windows
Server 2008. Cette partition crée et gère les partitions enfants et gère les fonctions de gestion
du système et les pilotes de périphérique. (Grassa, 2014)
II.7.4. Proxmox VE (Proxmox Virtual Environment)
Proxmox est un hyperviseur open-source. Il est basé sur une distribution Linux basée sur
Debian avec un noyau LTS Ubuntu modifié. Il permet le déploiement et la gestion des
machines virtuelles et des conteneurs.
Proxmox VE inclut une console Web et des outils de ligne de commande, et fournit une API
REST pour les outils tiers.
Deux types de virtualisation sont pris en charge : à base de conteneur avec LXC, et la
virtualisation complète avec KVM.

24
Chapitre II : Les Hyperviseurs

Figure II.6 Proxmox VE (Grassa, 2014)


II.7.5. Comparaison des hyperviseurs

Table II.1 Comparaison des Hyperviseurs (Grassa, 2014)


II.8. Conclusion
Un hyperviseur est une plate-forme de virtualisation qui permet à plusieurs systèmes
d'exploitation de travailler sur une même machine physique en même temps. On a vu les
deux types d’hyperviseur, un qui s’exécute directement sur le matériel d’une machine et le
deuxième qui s’exécute comme un programme sur le système d’exploitation de la machine
mère.
Le prochain chapitre présente la virtualisation au niveau du stockage

25
Chapitre III : Virtualisation de Stockage

Chapitre III : Virtualisation de Stockage


III.1 Introduction
Avec l'utilisation des ressources informatiques actuelles, le stockage des données peut être
problématique, la quantité de données continue d'augmenter, les applications nécessitent des
performances plus élevées et le nouveau matériel est difficile à intégrer. Un environnement
de stockage typique utilise plusieurs périphériques de différents fabricants, mais ils ne
peuvent pas communiquer entre eux. Il devient compliqué de les gérer de manière
centralisée, ils fonctionnent donc en silos et deviennent rapidement obsolètes en quelques
années. L'un des moyens les plus efficaces de résoudre ce problème consiste à utiliser une
solution de virtualisation du stockage. (Zertal, 2019)
III.2 Définition de la virtualisation de stockage
La virtualisation du stockage est un concept conçu pour mapper virtuellement diverses
ressources de stockage d'une entreprise, telles que les disques durs, la mémoire flash ou les
lecteurs de bande, et les rendre disponibles en tant que pools de stockage liés (Data Store).
Par conséquent, la solution de virtualisation établit une couche de virtualisation entre le
serveur d'applications et le matériel de stockage existant, de sorte que les applications n'ont
plus besoin de savoir sur quels disques, partitions ou sous-systèmes de stockage résident
leurs données. (Zertal, 2019)

III.3 Avantages de la virtualisation de stockage


Le matériel de stockage peut cohabiter et fonctionner ensemble :

- La disponibilité augmente également avec la virtualisation du stockage car Les applications


ne sont pas limitées à des ressources de stockage spécifiques, donc Isolé de la plupart des
interruptions. Si l'hôte tombe en panne, il existe un système Un tiers qui peut détecter cette
panne. Ce dernier effectue le transfert de toutes les VM Exécutez sur cet hôte défectueux
vers un autre hôte en cours d'exécution normal (High Availability : HA) (Dumont, 2016)
(Zertal, 2019)

- De plus, la virtualisation du stockage permet la migration automatique des données Vers


une autre machine virtuelle qui continue de fournir les performances requises Utilisé dans
les applications (Vmotion). (Dumont, 2016) (Zertal, 2019)

-De plus, la virtualisation du stockage s'étend généralement automatiquement La capacité de


stockage réduit le besoin de configuration manuelle. Cette Les ressources de stockage

26
Chapitre III : Virtualisation de Stockage

peuvent être mises à jour dynamiquement sans affecter Performances des applications,
réduisant ainsi les temps d'arrêt. (Dumont, 2016) (Zertal, 2019)

La différence entre Vmotion et High Availability (HA) est que Vmotion est démarré par
l'administrateur, tandis qu’HA est automatiquement démarré par le système lorsque l'hôte
est en panne (doit être activé). (Dumont, 2016) (Zertal, 2019)
Cela permet aux administrateurs d'identifier, de configurer et de gérer le stockage distribué
en tant que ressource intégrée unique, éliminant ainsi le gaspillage de capacité.
Dans un environnement d'entreprise, la virtualisation du stockage est généralement
implémentée par blocs. Divisez ensuite les données en blocs de taille égale et attribuez une
adresse unique à chaque bloc de données. Ce dernier est stocké par un logiciel de
virtualisation (Programme de gestion) dans la table de cartographie centrale. Par conséquent,
la table de mappage contient toutes les métadonnées nécessaires pour localiser
l'emplacement physique du bloc de données. Ce mappage permet à un contrôleur
indépendant du support de stockage physique de gérer les données virtuelles, telles que le
déplacement, la copie, la mise en miroir ou les répliquer. (Dumont, 2016) (Zertal, 2019)
III.4. Les architectures de stockage
III.4.1. Direct Attached Storage (DAS)
Direct Attached Storage ou le stockage à connexion directe fait référence à un système
Directement connecté à un serveur ou à un ordinateur au lieu d'un stockage informatique via
un réseau. La machine virtuelle est stockée localement et n'est accessible que par le serveur
hébergeant la VM. Par exemple, les disques durs des ordinateurs ou des serveurs sont une
forme courante de connexion directe au stockage, tout comme les groupes de disques
externes au serveur, mais ces disques sont directement connectés via des interfaces SCSI
(Small Computer System Interface), SATA (Serial Advanced Technology Attachment) ou
Serial Attached SCSI (SAS) (cf. Figure III.1).

Dans ce type de stockage :

•la non dynamitées des espaces de stockage des serveurs.


• Un taux d’utilisation non optimal.
• Si un des serveurs tombe en panne, alors pas de serveur qui peut accéder aux VM. Donc il
faut attendre que le serveur soit opérationnel à nouveau pour pouvoir redémarrer les VM.
Avantage :

27
Chapitre III : Virtualisation de Stockage

- C'est la solution la plus économique, et elle est très simple et rapide à mettre en place, sans
avoir besoin de compétences ou d'expertise de stockage très avancées. Cette architecture est
possible dans un environnement de production, mais vous devez envisager de placer une
solution de sauvegarde adaptée. Il peut être une solution idéale pour les petites et moyennes
entreprises. (Grassa, 2014)

Inconvénient :
Le niveau de service est bas. Fonctions avancées, telles que VMotion, HA, etc. sont
indisponible. Pas de gestion centralisée des machines virtuelles. (Grassa, 2014)

Figure III.1: Architecture de stockage DAS (Zertal, 2019)

III.4.2. SAN (Storage Area Network)

Un réseau de stockage (SAN) est un réseau dédié permettant de mutualiser les ressources de
stockage.
Dans cette architecture, les machines virtuelles sont approvisionnementées stockées sur la
baie de stockage et sont accessibles par nombreux serveurs. En cas d'erreur de serveur, un
autre serveur connecté au stockage peut rapidement et automatiquement remettre la machine
virtuelle en production sans attendre le redémarrage du serveur défaillant. Cela permet de
limiter les interruptions de service. Cette architecture offre la possibilité de profiter de toutes
les fonctionnalités avancées telles que VMotion. (Zertal, 2019) (Grassa, 2014)

De plus, ce type d'architecture offre des performances supérieures et un haut niveau de


sécurité en mettant en œuvre une redondance pour accéder à la VM. C'est également grâce
aux fonctionnalités intégrées de la baie de stockage, telles que la mise en miroir et la
réplication des données.

28
Chapitre III : Virtualisation de Stockage

Il diffère des autres systèmes de stockage en ce qu'il accède au disque en mode bloc. Pour
les SAN, les baies de stockage n'apparaissent pas en tant que volumes partagés sur le réseau.
Une fois que vous entrez dans le système de fichiers du serveur en introduisant un niveau
d'abstraction entre le serveur et le système de stockage, vous pouvez en fait y accéder
directement en mode bloc. Augmente la flexibilité de l'administrateur. Chaque serveur
considère l'espace disque accessible de la baie SAN comme son propre disque dur (cf. Figure
III.2).

Figure III.2 : L’architecture de stockage SAN (Zertal, 2019)

Le protocole est utilisé pour le transfert de données sur les réseaux SAN. Les plus courants
sont le Fibre Channel et iSCSI . (Grassa, 2014)

Avantage :

-L'un des avantages du SAN est l'évolutivité de l'espace de stockage. L'espace disque n'est
plus limité par la fonctionnalité du serveur et peut être étendu à volonté en ajoutant des
disques ou des matrices de stockage au SAN. Par conséquent, le stockage physique partagé
du serveur optimise la gestion des disques.

-Technologie Fibre Channel Les débits du réseau SAN peuvent atteindre 32 Gbit/s
(anciennement 1 Gbit/s, 2, 4, 8, et 16) par liaison fibre optique, transmis, reçu, et reçu par
les serveurs. Les exigences considérées sont assurées par le système de stockage.

- Un autre avantage des SAN est la redondance du stockage, qui garantit l'accès au système
de stockage en cas de défaillance d'un de ses éléments et permet de répliquer chaque élément
du système (haute disponibilité). De plus, le système d'exploitation du serveur n'a aucune
importance car il peut fonctionner dans des environnements complètement hétérogènes.

Inconvénient :

29
Chapitre III : Virtualisation de Stockage

Cela coûte plus cher que le stockage local et nécessite des compétences en stockage. Cela
nécessite plus de travail préparatoire. (Dumont, 2016) (Zertal, 2019)

III.5. Gestion du stockage (Grassa, 2014)

1. Le Datastore
Le stockage est considéré comme un magasin de données. Un magasin de données (Data
Store) est une représentation virtuelle d'une ressource de stockage dans laquelle une machine
virtuelle est stockée. En fournissant un modèle unifié pour les serveurs, quel que soit le
stockage, il masque la complexité des différentes technologies et solutions de stockage sur
le marché. 1

2. Accès aux données par la machine virtuelle


- L’envoi des commandes SCSI lorsqu'une machine virtuelle communique avec un disque
virtuel (vmdk).

- Le contrôleur du système d'exploitation invité communique avec le contrôleur SCSI


(vSCSI).

- Le contrôleur SCSI virtuel envoie des commandes au Vmkernel

- Le VMkernel trouve le fichier qui correspond au disque virtuel vmdk et l'emplacement du


bloc à modifier dans le magasin de données (Data Store) 2.

III.6. Protocoles de stockage SAN


III.6.1. iSCSI (Internet Small Computer System Interface)
iSCSI est un protocole de stockage réseau basé sur IP pour connecter des fonctions de
stockage de données. Le protocole iSCSI inclut des commandes SCSI dans des paquets TCP
et les envoie via le réseau Ethernet aux périphériques de stockage. Cela permet au client
(appelé l'initiateur) d'envoyer des commandes SCSI (CDB) au périphérique de stockage
SCSI (cible) sur le serveur distant. Il s'agit d'un protocole utilisé dans les réseaux SAN qui
agrège les ressources de stockage dans un centre de données tout en faisant apparaître le
stockage local. Contrairement à Fibre Channel, qui nécessite une infrastructure matérielle
particulière, iSCSI peut être utilisé tout en préservant l'infrastructure existante. (Zertal,
2019) (Grassa, 2014)

1
https://www.m2iformation.fr/formation-virtualisation-des-reseaux-sdn-et-nfv/SEMIRES/
2
https://www.m2iformation.fr/formation-virtualisation-des-reseaux-sdn-et-nfv/SEMIRES/

30
Chapitre III : Virtualisation de Stockage

Avantage :
iSCSI a été largement adopté dans beaucoup de secteurs d’activité car il utilise le réseau
TCP/IP de l’entreprise. Il n’est donc pas nécessaire de monter une architecture de stockage
dédiée avec des switchs FC, des cartes et des câbles spécifiques. Pour cette raison, dans
certains environnements cette solution est idéale car elle est beaucoup plus simple à mettre
en place et ne nécessite pas de compétences de stockage très évoluées. De plus ce protocole
offre de très bonnes performances. (Zertal, 2019) (Grassa, 2014)
Inconvénient :
Les tests ont montré qu'il s'agit du protocole utilisé par la plupart des processeurs (jusqu'à
60 % de temps processeur plus long que les processus FC pour le logiciel iSCI).
III.6.2. Fibre Channel
Fibre Channel est un autre protocole de stockage dans la couche de transport qui sert de base
aux SAN pour envoyer des données. Il s'agit du langage utilisé par les adaptateurs de bus
hôte (HBA), les commutateurs et les contrôleurs dans les baies de stockage des SAN pour
communiquer entre eux. Fibre Channel est un langage de bas niveau. C'est-à-dire que Fibre
Channel est utilisé comme langage entre le matériel réel et non dans les applications qui y
sont exécutées. Il est le plus largement utilisé dans les environnements de production.
(Zertal, 2019) (Grassa, 2014)

Avantage :
Il semble acquis en 2009, le Chanel Fibre Protocol est le protocole le plus efficace en E/S et
semble consommer le moins de ressources CPU sur le serveur hôte par rapport au protocole
iSCSI. (Grassa, 2014)

Inconvénient :
FC est la solution la plus chère car elle nécessite de construire une architecture de stockage
et d'investir dans des cartes HBA, des commutateurs FC et des câbles (généralement des
fibres optiques). Cette solution est plus complexe à mettre en place et nécessite des
compétences de stockage particulières. (Grassa, 2014)

III.7. Conclusion
La virtualisation de stockage implique de rassembler diverses baies de stockage physiques
dans des réseaux afin de les utiliser comme un pool par une ou plusieurs machines.

Le chapitre suivant présente la virtualisation au niveau des réseaux.

31
Chapitre IV : Virtualisation des Réseaux

IV.1. Introduction
Un réseau virtuel est une combinaison de ressources matérielles et logicielles dans une unité
administrative. L'objectif de la virtualisation des réseaux est de permettre aux utilisateurs
disposant de systèmes et aux utilisateurs d'échanger des ressources réseau de manière
sécurisée, contrôlée et garantie.
Les technologies utilisées pour la virtualisation de réseau comprennent les VLAN, les
réseaux privés virtuels (VPN), les commutateurs logiques, le routage logique, les pare-feu
logiques et l'équilibrage de charge logique. Certaines de ces techniques se sont avérées très
utiles avec les équipements de réseau physique et de serveur.
La virtualisation des serveurs ajoute une couche abstraite à la couche physique et peut poser
des problèmes lorsqu'un centre de données s'appuie sur des architectures réseau
traditionnelles. Par exemple, les VLAN utilisés par les machines virtuelles doivent être
configurés sur le même port de commutateur de serveur physique sur lequel l'hyperviseur
s'exécute. Cependant, les machines virtuelles sont portables et l'administrateur réseau doit
pouvoir ajouter, supprimer et modifier des ressources et des profils réseau. Un tel processus
est difficile à imaginer avec des adaptateurs réseau ordinaires. (Matoussi, 2021)
IV.2. Principe de Network Plans
Chaque équipement réseau contient les plans suivants :
1. • Plan de contrôle : est le cerveau de l'appareil, le panneau de commande est utilisé
pour décider de la transmission. Cela inclut les mécanismes de transfert de route de
couche 2 et de couche 3, y compris la table de voisinage, la table de topologie
(protocole de routage) et les tables de routage IPv4, IPv6, STP et ARP. Les
informations envoyées au centre de contrôle sont traitées par le processeur.
(Mouffok, 2014)
2. • Plan de transmission : Cette couche est également connue sous le nom de « couche
de transmission » et fait généralement référence à la connexion « tissulaire » qui relie
les différents ports réseau sur un appareil. Le plan de données de chaque appareil est
utilisé pour acheminer le flux de trafic. Les routeurs et les commutateurs utilisent les
informations du panneau de commande pour acheminer le trafic entrant vers
l'interface sortante appropriée. Les informations du plan de contrôle sont
généralement traitées par un processeur dédié, tel qu'un processeur de signal
numérique (DSP), sans avoir besoin d'un processeur principal. (Mouffok, 2014)

32
Chapitre IV : Virtualisation des Réseaux

IV.3. Réseau VLAN


Avec le développement des commutateurs, les réseaux locaux virtuels sont devenus une
nouvelle fonctionnalité dans la gestion des réseaux.
Le concept de VLAN est un concept qui permet de mettre en place des réseaux
indépendamment du système de câblage. Dans ces réseaux, vous pouvez définir des
domaines de diffusion limités, c'est-à-dire que les messages envoyés par une station dans un
VLAN ne peuvent être reçus que par des stations dans le même VLAN.
Un VLAN est plus un regroupement logique qu'un regroupement physique de plusieurs
stations. Pour réaliser cette agrégation, nous intervenons directement via le logiciel sur les
éléments actifs (éléments), qui sont des commutateurs VLAN. (Mouffok, 2014)
IV.4. Les Avantages d’un VLAN
 By Soutenir les organisations virtuelles en créant un groupe indépendant de l'emplacement
géographique.
 Ils améliorent la bande passante en créant des réseaux séparés et donc des domaines de
collision séparés.
 Simplifie la gestion en utilisant des contrôles de gestion de réseau centralisés plutôt que
de perturber les cordons de brassage.
 Augmente la sécurité en définissant des règles de communication entre les VLAN
(Mouffok, 2014)
La technique des VLAN : Pour atteindre les VLAN, vous avez d'abord besoin de
commutateurs spéciaux qui prennent en charge les VLAN.
Ces produits combinent tous les avantages des solutions précédentes :
 Divisé en différentes zones de transmission
 Attribuer un ou plusieurs ports VLAN à partir d'une console centrale
 Optimiser la bande passante en modifiant les fonctions
 Adapter la vitesse de commutation à la capacité du réseau
 Collecter les VLAN dans le même segment backbone (réseaux distants avec des
VLAN partagés)
 Bonne gestion de l'étanchéité entre les VLAN(Mouffok, 2014)
IV.5. Les types des VLAN (Mouffok, 2014)
Il existe différents types de VLAN, selon la façon de travail, nous pouvons les mapper à une
couche spécifique du modèle OSI.
 VLAN de niveau 1 associé à la couche physique

33
Chapitre IV : Virtualisation des Réseaux

 VLAN de niveau 2 associé à la couche liaison


 VLAN de niveau 3 associé à la couche réseau
IV.6.1. Le VLAN de niveau 1
Le VLAN de niveau 1 traite de la configuration physique du réseau et implique la connexion
de chaque port de commutateur au VLAN. (Mouffok, 2014)
Dans ce type de VLAN :
 Il s'agit du port qui identifie le VLAN auquel appartiennent les disques installés
 Manque de contrôle fort pour chaque pneu dans le processus de direction
 Cependant, ce type de VLAN présente des inconvénients importants :
Le mélange est essentiel pour géolocaliser les stations
 Le VLAN doit être modifié lors de l'ajout ou de la suppression d'utilisateurs
• Vous n'êtes pas autorisé à manipuler des touches consécutives
 Il n'y a pas beaucoup de flexibilité avec ce type de VALN, il est donc peu utile.
IV.6.2. Le VLAN de niveau 2
Dans ce type de VLAN, l'adresse MAC de la carte Station, qui appartient à votre internet ;
Cela garantit une excellente flexibilité et permet d'accéder aux stations dans le même
commutateur de port et de la même partie de divers problèmes portables.
Ce point est très important car il permet de réussir les tests sur le commutateur configuré
dans VLAN. La clé VLAN placée sur le pont, puis effectuée un problème sans problème,
car la lecture de l'adresse MAC du cadre est liée au numéro de VLAN.
La flexibilité suive toute l'énergie des réseaux de la Croix-Rouge russe, car en cas de
déplacement des attitudes, aucune reconfiguration de la clé inutile et VLAN est toujours
accompagnée de la carte réseau Mac dans le VLAN.
Le seul défaut de ce type de Web, la nécessité de conserver un fichier de messagerie entre
l'adresse AMAC et VLAN et le commutateur créé lors de la configuration configurée, facile
à exporter. Bien entendu, chaque modification de la carte réseau est requise dans un
changement comparable dans le VLAN. (Mouffok, 2014)
IV.6.3. Le VLAN de niveau 3
On peut supposer qu'il s'agit du niveau VLAN standard, en fait le niveau 3 est l'adresse IP
de la station qui identifie à quel VLAN elle appartient. Plus précisément, nous connectons
un VLAN à une plage d'adresses. Avec les VLAN de niveau 3, la configuration est facile car
nous sommes au niveau IP, loin de toute configuration matérielle telle que les ports ou les
adresses MAC. On retrouve bien sûr la puissance des VLAN, ce qui signifie que des stations

34
Chapitre IV : Virtualisation des Réseaux

de commutation uniques peuvent appartenir à différents VLAN. Le niveau 3 convient à un


réseau complexe et aux entreprises disposant d'un grand nombre d'ordinateurs portables
filaires ou sans fil. (Mouffok, 2014)
Grâce aux performances du système d'exploitation embarqué dans les commutateurs VLAN,
des milliers de trames peuvent être traitées rapidement en parallèle. Si nous approfondissons
le traitement des trames, nous trouvons même une trame Ethernet traditionnelle avec un
champ de données qui contient un paquet IP. Avant tout routage de trame, le commutateur
doit extraire un paquet IP d'une trame Ethernet puis extraire l'adresse IP de destination de la
trame et son masque de sous-réseau de ce paquet IP. (Mouffok, 2014)
IV.7. Le réseau VPN
Le VPN (Virtual Private Network) est une technologie de "réseau privé virtuel". Cela permet
à un ordinateur distant d'avoir un accès direct et absolument sécurisé à un autre ordinateur
ou à un réseau local via Internet. Cette technologie rend superflues les solutions de location
coûteuses pour les communications privées et privées. Les programmes et systèmes
distribués font de plus en plus partie de la vision de nombreuses entreprises. Ces technologies
ont évolué grâce à l'amélioration des performances des réseaux locaux. Cependant, le succès
de ces programmes a également révélé l'un de leurs problèmes. Si les applications distribuées
deviennent l'outil principal d'un système d'information, comment garantir un accès sécurisé
à des structures dont certaines sont très dispersées ? Comment une filiale d'une entreprise
accède-t-elle réellement aux données d'un serveur de la maison mère qui se trouve à plusieurs
milliers de kilomètres ? Le mode réseau privé virtuel (VPN) a commencé à résoudre ces
problèmes. Mais d'autres problèmes sont apparus, et les VPN occupent désormais une place
importante dans les réseaux informatiques et distribuent les ordinateurs.
IV.8. Principe de fonctionnement des VPN
IV.8.1. Concept du VPN
Les réseaux locaux (LAN ou RLE) sont les réseaux internes d'une organisation, c'est-à-dire
que les connexions entre les appareils appartiennent à l'organisation. Ces réseaux sont de
plus en plus connectés via des dispositifs de connexion Internet.
La plupart des entreprises ressentent le besoin de se connecter à des filiales, des clients ou
même des employés géographiques distants via Internet. Cependant, les données envoyées
sur Internet sont plus vulnérables que la transmission sur le réseau interne d'une organisation
car leur chemin n'est pas prédéterminé, ce qui signifie que les données utilisent
l'infrastructure du réseau public de différents opérateurs. Par conséquent, il ne peut être exclu

35
Chapitre IV : Virtualisation des Réseaux

que le réseau puisse être complètement corrompu ou même piraté par un utilisateur stupide.
Par conséquent, l'envoi d'informations sensibles à l'organisation ou à l'entreprise dans de
telles circonstances est impensable.1
La première solution à accéder à ce besoin est une connexion sécurisée, la connexion de
réseaux externes à l'aide de liens spécialisés. Cependant, la plupart des entreprises ne peuvent
pas connecter les réseaux locaux via une ligne spécialisée, il est parfois nécessaire d'utiliser
Internet comme transfert. Une bonne solution à utiliser la méthode de transfert Internet à
l'aide du protocole d'emballage (Tunneling en anglais), parfois le terme" tunnelisation "),
signifie que les données prises ont été prises à un code pris. En quelque sorte. Parlez ensuite
du réseau standard (RPV ou VPN, connectant la norme de contact réseau standard) pour
définir le réseau et donc Artificial. Ce réseau virtuel est appelé car il s'appelle ces "réseaux
physiques" (réseaux locaux) (locaux Networks))) Connectez les connexions via Internet
impartial, d'autant plus que seuls les ordinateurs réseau locaux sont des côtés et d'autres
"données VPN" et après la visualisation. 2
Le système VPN permet de réaliser la mise en œuvre de l'équipement terminal. D'autre part,
la qualité de service n'est pas autorisée à être comparable à une ligne de location car le réseau
physique est général et donc non garanti.
IV.8.2. Principe général VPN
Le VPN est basé sur un protocole appelé Tunneling Protocol. Ce protocole permet aux
informations commerciales cryptées de circuler d'un bout à l'autre du tunnel. Cela donne aux
utilisateurs l'impression d'être directement connectés au réseau de leur entreprise. Le
principe du tunnel est de créer un chemin virtuel après avoir déterminé l'expéditeur et le
destinataire. La source crypte ensuite les données et les place dans ce chemin virtuel. Pour
un accès facile et peu coûteux aux réseaux d'entreprise internes ou aux réseaux externes,
envisagez d'utiliser des VPN pour simuler un réseau privé tout en utilisant une infrastructure
d'accès partagé telle qu'Internet.
Les données transmises peuvent être traitées avec un autre protocole DIP. Dans ce cas, le
protocole de tunneling encapsule les données en ajoutant un en-tête. Ce tunnel est une série
d'opérations d'emballage, d'expédition et d'emballage.

1 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn
2 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn

36
Chapitre IV : Virtualisation des Réseaux

IV.9. Fonctionnalités des VPN


IV.9.1. Le VPN d’accès
Le VPN est utilisé pour l'accès en itinérance au réseau privé. L'utilisateur utilise la connexion
Internet pour établir une connexion VPN.
IV.9.2. L’intranet VPN
L’Intranet VPN est utilisé pour connecter deux ou plusieurs réseaux internes. Ce type de
réseau est particulièrement utile pour les travaux à distance. La chose la plus importante dans
ce type de réseau est d'assurer la sécurité et l'intégrité des données.
Certaines données très sensibles peuvent être transmises via VPN (base de données clients,
informations financières, etc.). Des techniques de cryptage sont mises en œuvre pour garantir
que les données ne changent pas. Ce crédit est à un niveau fermé pour s'assurer que les
données sont valides, leur source est connue et indéniable. La plupart des algorithmes utilisés
sont basés sur des signatures numériques ajoutées aux packages. La protection des données
dépend également des algorithmes de cryptage. La technologie est suffisamment avancée
pour permettre une sécurité quasi-totale. Le coût du cryptage et du décryptage ainsi que les
restrictions légales interdisent l'utilisation du cryptage « sécurisé ». Le cryptage lui-même
peut généralement être moyen à faible pour des raisons de confidentialité, mais il est
combiné à d'autres technologies telles que le cryptage IP-in-IP pour une bonne sécurité. 3
IV.9.3. L’extranet VPN
Toute entreprise peut utiliser un VPN pour communiquer avec ses clients et partenaires. Puis
il lui ouvre son réseau local. Dans ce contexte, il est important que l'administrateur VPN soit
en mesure de suivre les clients sur le réseau et de gérer les droits de chacun d'entre eux. 4
IV.10. Conclusion
Un réseau virtuel est une combinaison de ressources matérielles et logicielles dans une unité
administrative. L'objectif de la virtualisation des réseaux est de permettre aux utilisateurs
disposant de systèmes et aux utilisateurs d'échanger des ressources réseau de manière
sécurisée, contrôlée et garantie.
Le chapitre suivant présente une généralité sur le Cloud Computing.

3 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn
4 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn

37
Chapitre V : Cloud Computing

Chapitre V : Cloud Computing


V.1. Introduction
Les progrès réalisés nécessitent un nouveau modèle d'ordinateurs de la livraison des services
de technologie de l'information sans installer des sites locaux. Le Cloud Computing ajuste le
même modèle. Il montre Internet flexible sur la base d'un programme que les frais sur la
question des ressources. En général, un nuage est un modèle technologique, étendant de
nombreuses techniques existantes, des comptes parallèles et des tuyaux, par exemple des
structures de service (architecture orientée service), la simulation virtuelle, les réseaux, etc.,
la distribution de vie télégraphe, Internet et les mises à niveau en ligne comme essentielle
éléments nécessaires au Cloud Computing. Il s'agit d'un modèle informatique commun dans
lequel le traitement, le stockage, les réseaux et les applications, etc. Commun. Les offres de
graisse en Cloud Computing, basées sur la demande, la sécurité, la qualité, le développement
et la plupart des réponses et des services de service et des services sont automatiquement
fournies. Les services sont transparents (emplacement indépendant). Le Cloud Computing
peut aider à améliorer les performances des entreprises, avec l'aide de ressources
informatiques pour chaque entreprise.

Par conséquent, l'objectif principal de ce chapitre est de clarifier l'idée de Cloud Computing
en décrivant ses diverses histoires et définitions, les caractéristiques les plus importantes,
différentes couches, méthodes de mise en œuvre, avantages et inconvénients.
(Chandrasekaran, 2014)

V.2. Historique
Le concept de Cloud Computing n'est pas vraiment nouveau, car John McCarthy est
disponible au début de 1961 avec le "Système informatique en tant qu'outil général".

La cinquième évolution des bâtiments informatiques peut être envisagée selon Microsoft. Ce
développement peut être présenté conformément aux étapes suivantes (voir Figure V.1):
(Grassa, 2014)

1- En 1980, avec des entreprises qui donnent accès aux réseaux de recherche régionaux aux
États-Unis. Seulement en 1989 était exactement le premier fournisseur d'accès Internet (FAI
1.0) via un réseau téléphonique opérationnel. Ils n'autorisent pas l'accès à Internet de
restreindre le téléphone à une connexion de personnes dans lesquelles la société garantit.

38
Chapitre V : Cloud Computing

2- La deuxième phase est l'apparition de la deuxième génération de fournisseurs de services


Internet 2.0 pouvant utiliser des navigateurs Web pour utiliser le courrier électronique et
l'accès au service de messagerie.

3. La troisième génération et le FAI 3.0 ne savaient pas que l'apparition des centres de
compartiments présentés, le navigateur Internet et les télécommunications et la
communication avec d'autres réseaux Internet et accès aux serveurs de stockage. Traitement
de protection, matériel et transfert de données. Fournir un accès aux applications métier.

4 - Génération 4, FAI 4.0. (FSA) (également un fournisseur de logiciels en ligne connu) est
une entreprise qui fournit un logiciel dans lequel le service des ressources informatiques à vos
clients via Internet. Il comprend également la création de coussins de questions, y compris des
"logiciels comme" et de ses dérivés (section 5.1). L'utilisation de ce formulaire permet
d'accéder aux applications spécifiques (par exemple, des factures médicales) à l'aide d'un
protocole standard. Protocole HTTP.

5 - Cinquième génération, ISP 5.0,un groupe peut participer à leurs ressources matérielles
(sous l'infrastructure ainsi que la présence de modèles de service en même temps et au coût le
plus bas (logiciel en tant que service). FAI 5.0 propose également un modèle économique,
permettant aux utilisateurs de lancer les outils utilisés uniquement, tels que Google et
Salesforce, les premiers sites publics des services cloud en 1999.

Figure V.1 : Evolution vers le Cloud. (Grassa, 2014)

V.3. Définition du Cloud Computing


Il n'existe actuellement aucune définition précise de l'informatique sur les nuages « Cloud
Computing » par des chercheurs. La recherche à elle seule a été faite clairement déterminer le

39
Chapitre V : Cloud Computing

concept du nuage, par exemple Vaquaqueo et al., Une comparaison complète de plus de 20
définitions différentes autour du nuage.

Nous citons des définitions différentes. Voici quelques-unes de leurs récompenses de


définition que nous semblons être plus importantes :

- CISCO Systems, leader mondial des technologies de réseau, l'informatique en nuage peut
être expliquée comme suit : "Les ressources et les services de celui-ci de l'infrastructure de
base et de la" demande "sont extraites et "Généré" dans plusieurs environnements répondants,
Cloud Computing, la plate-forme de la société Changement d'ordinateur dans les services de
mesure d'application et de service avec des ressources sans fin. "Le modèle du Cloud
Computing pour créer n'importe où est possible, accédant à l'accès au réseau à un groupe
commun de ressources technologiques de l'information (CE, réseaux, serveurs, unités de
stockage ;

- Selon NIST (Institut national de la science et de la technologie), le cloud est défini,


Applications et services) pouvant être facilement remplacés et libérés à l'effort de la tension
la plus bas par le fournisseur de services aurifère. Quick et libéralisation avec le gouvernement
le plus bas ou entrer dans l'effort du fournisseur. (Mell et Grance , 2011) (Grassa, 2014)

- Selon Lagartner, un cloud est défini comme suit : "Le calcul du nuage est léger, lorsque des
informations gradient et flexible sont fournies en tant que service pour la technologie des
technologies douanières externes." En d'autres termes, le cloud Computing est une sorte
d'ordinateurs qui sont équipés de grandes capacités en tant que service pour plusieurs clients
des technologies Internet.

- Amazon fait référence au cloud Computing tel que la demande de calcul de puissance, de
base de données de stockage, d'applications et autres outils informatiques via la plate-forme
de service en cloud en ligne, donc Walkma consomme l'utilisateur. Utilisons des applications
pour partager des photos sur le téléphone mobile, où nous utilisons des millions de processus
métier critiques, le nuage est un accès rapide à l'ordinateur qui signifie flexible et peu coûteux.
Sur ces quatre définitions, le cloud Computing dépend de la technologie de simulation
standard, qui comprend le partage des ressources informatiques personnalisables du centre de
données. Par exemple, les réseaux, les serveurs, le stockage de la base de données, la puissance
de calcul, les applications, etc. Le cloud consomme également des demandes, des succursales
et de la flexibilité des clients avec certaines factures.

40
Chapitre V : Cloud Computing

V.4. Les caractéristiques du Cloud Computing


Selon NIST, le Cloud Computing comprend les cinq caractéristiques suivantes : (Mell et
Grance, 2011) (Zertal, 2019) (Grassa, 2014)

V.4.1. Accès libre-service et à la demande


Ce service est actuellement livré et appliqué sans aucune interaction avec le fournisseur de
services. En d'autres termes, ce service permet aux utilisateurs d'utiliser des ressources en
nuage, notamment la capacité de stockage simultanée et le stockage de réseau en fonction de
leurs besoins, un accès gratuit aux ressources sans interaction humaine entre les utilisateurs et
les fournisseurs de services.
V.4.2. Accès ubiquitaire au réseau
Les différentes ressources dans le cloud sont accessibles via des plateformes hétérogènes (par
exemple : tablettes, stations de travail, smartphones, etc.).

V.4.3. Mise en commun des ressources


Dans le nuage, le même logiciel peut être utilisé avec plusieurs clients en même temps,
maintenir la sécurité et les données spécifiques pour chaque client. Cela peut être à l'aide
d'outils standard à partager sur le serveur multi-utilisateurs. Diverses ressources physiques et
virtuelles (par exemple, la bande passante de stockage, de traitement, de la mémoire et du
réseau) sont dynamiques et respectives pour les clients en fonction de la demande de
consommation. Le client peut vérifier l'emplacement exact de l'outil fourni. Cependant,
l'emplacement de ses ressources peut être nécessaire, tel qu'un pays où le continent est effectué
à partir de l'intégrale d'une abstraction plus élevée.
V.4.4. Elasticité rapide
La flexibilité fait référence au cloud à (augmenter où) allouer des ressources rapidement,
flexibles et efficaces, en fonction des besoins de l'utilisateur. Les options de compte comme
un large soutien de facteurs dynamiques semblent être payés si nécessaire.

V.4.5. Service mesuré


Utilisation Les ressources peuvent être surveillées, contrôlées et assurer la transparence du
fournisseur et du service des consommateurs. Cloud Computing peut payer le client de
L’usage, uniquement lorsqu'ils sont consommés, en fonction du type de service (stockage,
traitement, bande passante, comptes actifs de l'utilisateur, etc.) et le temps.

41
Chapitre V : Cloud Computing

V.5. Modèles de services


Le groupe de travail NIST a classé les services Cloud en trois modèles (couches), en fonction
de la nature du service, à savoir logiciel, plateforme où infrastructure (cf. Figure V.2).
(Dumont, 2016)

Figure V.2 : Modèle de référence du Cloud Computing. (Zertal, 2019)

V.5.1. SaaS (Software as a Service)


Il s'agit d'un modèle pour les applications que SaaS (opérateurs SAAS) adaptées aux
applications applicables en tant que client personnalisé. De nombreux programmes servent de
service, tels que des programmes de messagerie en ligne, de CRM et de stockage tels que
Flickr, HR, Goods, Vendeurs, etc. Construisez certainement des infrastructures, des serveurs
et des hébergements définitivement par le biais des fournisseurs de services cloud et d'un
utilisateur totalement nu. Le placard est final, mais la configuration dans laquelle elle est
utilisée par exemple par l'intermédiaire de l'API (programmation d'application) que le groupe
est venu pour ces clients afin de pouvoir configurer la gestion de la communication. Aussi
pour la liberté d'effectuer chaque mise à jour, le rôle des fournisseurs de services qui devraient
vérifier et mettre à jour leur gestion de relations. (Mohammed et Al, 2021)

V.5.2. PaaS (Platform as a Service)


Ce modèle offre l'outil de programmation linguistique et utilisateur pour un groupe Laissez-
les développer des applications logicielles (par exemple, programmes Applications Web et
mobiles où les applications de bureau), pas besoin de nécessiter Installez un outil dans votre
livre de travail local et publiez ces programmes Obtenez de l'infrastructure de nuage. Contrôler

42
Chapitre V : Cloud Computing

les conducteurs et la gestion récente L’infrastructure principale a terminé le programme, mais


l'utilisateur / développeur Contrôler simplement les programmes publiés. Le service d'une
plate-forme en tant que service général est disponible via les interfaces Web générales. Les
meilleures plateformes de développement appelées fournisseurs de logiciels importants qu'un
service comme Google App Engine1 et Windows Azure2. (Mohammed et Al, 2021)

V.5.3. IaaS (Infrastructure as a Service)


Ce modèle dispose d'une infrastructure en tant que service à utiliser et d'utiliser des
applications telles que des serveurs, des installations informatiques, des réseaux, des espaces
de stockage propose une bande passante et ainsi de suite. Ces services sont utilisés en ligne et
fournis à titre de paiement. Les clients d'infrastructure paient les ressources qui consomment
seulement. L'utilisateur contrôle les systèmes d'exploitation, les applications, le stockage et la
publication. Amazon EC2 (Amazon Elastic Compute Cloud)3 est un exemple d'IaaS.
(Mohammed et Al, 2021)

Pour simplifier ces notions, nous pouvons retenir qu’avec :


- Le SaaS : nous pouvons utiliser une application ;
- Le PaaS : nous pouvons développer et déployer une application ; et
- L’IaaS : nous pouvons héberger nos applications.

V.6. Modèles de déploiement du Cloud


Selon le NIST, les services Cloud peuvent être déployés suivant quatre modèles, le Cloud
privé, public, communautaire et hybride, correspondant à des usages différents :

V.6.1. Le Cloud public

Le cloud public est généralement accessible au public sur Internet. Le grand public peut être
défini par un utilisateur, une entité commerciale, une université, un organisme
gouvernemental ou une combinaison de ceux-ci (voir Figure 3.V).

Amazon, Google, Microsoft et Salesforce proposent un cloud public dans lequel chaque
personne ou entreprise peut héberger ses propres applications, services ou données.

1
http://appengine.google.com
2
https://azure.microsoft.com/fr-fr/
3
https://aws.amazon.com/fr/ec2/

43
Chapitre V : Cloud Computing

Figure V.3 : Schéma de l’architecture de Cloud public. (Zertal, 2019)

V.6.2. Cloud privé

L'infrastructure cloud est destinée à l'usage exclusif d'une organisation. Il peut appartenir à
l'organisation, sous son contrôle et sa direction, ou à un tiers, ou à une combinaison de ceux-
ci. Cela peut être fait à l'intérieur ou à l'extérieur de l'organisation. Eucalyptus, OpenNebula
et OpenStack sont des exemples de solutions pour construire un cloud privé. Ainsi, la
principale différence entre un cloud public et un cloud privé est que les ressources de cloud
privé sont uniquement destinées aux clients qui ont été autorisés par l'organisation et ne
peuvent pas être partagées avec d'autres clients de l'extérieur, contrairement à un cloud public,
à Les ressources partagées par l'entreprise peut être partagée avec le grand public. (Zertal,
2019)

Nous pouvons distinguer deux types de Cloud privé :


1- Les Clouds privés internes : dans ce type de Cloud, les applications, les ressources
physiques et virtuelles sont regroupées et gérées au sein de l’infrastructure possédée par
l’organisation. (Zertal, 2019)
2- Les Clouds privés externes : dans ce type de Cloud, les ressources sont destinées aux
besoins de l’entreprise, mais elles sont hébergées et déployées chez un fournisseur.
(Zertal, 2019)
V.6.3. Le Cloud Communautaire
L'infrastructure cloud est partagée par de nombreuses entreprises. Cette communauté
organisationnelle peut avoir des intérêts similaires, par exemple les tâches de gestion des
ressources, sécurité des données, livraison des applications, authentification, etc.

44
Chapitre V : Cloud Computing

Ces ressources peuvent être détenues, contrôlées et gérées par une ou plusieurs organisations
de la société civile, un tiers ou une combinaison de ceux-ci. Il peut être placé à l'intérieur ou
à l'extérieur des bâtiments de diverses organisations de la société civile.

Des exemples de Cloud communautaires4 :

 La GSA (General Services Administration) aux États-Unis qui a créé un site de


réseautage social pour les agences gouvernementales américaines.
 Amadeus, l'un des principaux fournisseurs de solutions informatiques pour l'industrie
du voyage et du tourisme, a été fondé il y a 20 ans par Air France, Lufthansa, Iberia et
SAS. Aujourd'hui, c'est la plus grande entreprise de voyages au monde avec plus de 150
compagnies aériennes, 280 millions de transactions quotidiennes et 2 500 professionnels
de l'informatique.
 CMed, startup a été lancé en 2010 pour créer une nouvelle communauté cloud pour
les laboratoires pharmaceutiques. Après avoir standardisé et coordonné les processus
d'approbation de nouveaux médicaments dans le monde entier, la startup a souhaité
accompagner les laboratoires du monde entier avec son programme Timaeus.
V.6.4. Cloud hybride
L'Infrastructure Cloud Hybride est la configuration de deux ou plusieurs Infrastructures
Cloud différentes (privée, sociale ou efficace). Ces entités sont sécurisées, sauf avec des
technologies standards ou propriétaires, qui transfèrent des données et des abonnements
entre différentes infrastructures basées sur le cloud. Par exemple, on peut exporter nos
applications vers un cloud public, mais ces applications utilisent aussi des données stockées
dans un cloud privé, ou en connectant deux applications hébergées dans deux Clouds
distincts. (Zertal, 2019)

V.7. Les avantages et les inconvénients du Cloud


Toute analyse sérieuse du Cloud Computing doit prendre en compte les avantages et les
inconvénients de cette technologie. Dans ce qui suit, nous discutons des avantages et des
inconvénients du Cloud Computing.
V.7.1. Avantages
Les offres de cloud sont beaucoup plus et plus flexibles pour ses utilisateurs.

4
https://blog.outscale.com/fr/le-cloud-communautaire-nouveau-modele-en-vogue

45
Chapitre V : Cloud Computing

L'utilisateur peut faire un moyen sur n'importe où et à tout moment. Compte tenu du nombre
croissant de dispositifs compatibles, aujourd'hui (par exemple, tablettes, smartphones, etc.),
les informations et les données ne doivent pas être rapides et faciles. Certains de ces avantages
peuvent être, ce qui convient parfaitement à l'utilisation des nuages : (Zertal, 2019)
1. Réduire les coûts administratifs et les investissements initiaux : avec des sociétés de cloud
sur la gestion des ressources que les employés ne se soucient pas de leur guide de programme.
Réduit le risque de travail en nuage.
2. équipé d'une infrastructure dynamique fournie par des économies de coûts et des services
avec moins de coûts de développement et de maintenance ;
3. Prendre soin de la demande, des services flexibles et de développement, d'amélioration et
compatibles avec les prestations de paiement pour la première fois avec le premier paiement
normal.
4. Pour la disponibilité et les performances avec une charge maximale sont automatiquement
obtenues.
5. Quick à rétablir et à améliorer la récupération des installations pour améliorer la flexibilité
des entreprises ;
6. Déterminez une capacité de traitement, stockage, réseau illimité, etc ; de manière flexible ;
7. garantira des mises à jour et une compatibilité des logiciels automatisés pour améliorer la
coordination et améliorer la compatibilité entre différents systèmes d’exploitation ;
8. Fournir une collaboration facile pour les groupes.
9. Entrez un compte respectueux de l'environnement car seul l'espace du serveur utilise
l'application requise.
V.7.2. Les inconvénients du Cloud Computing
Les inconvénients d’un Cloud sont :

1- Le Cloud nécessite un réseau de haut débit et de communication et une connexion stable ;

2- Les données et les applications sur un Cloud public pourraient ne sont pas en bonne sécurité,
ce qui implique des problèmes de confidentialité et de sécurité ;

3- Nécessite une surveillance continue et des applications stables avec des accords de niveau
de service (SLA). (Zertal, 2019)
V.8. Les principaux acteurs du Cloud Computing
Selon une recherche moderne de Merrill Lynch, il estime que le marché du Cloud coûte 160
milliards de dollars, dont 95 milliards de dollars, pour les applications commerciales, et la

46
Chapitre V : Cloud Computing

productivité des entreprises et 65 milliards de dollars pour la Publicité sur Internet. Une autre
étude de Morgan Stanley a également identifié le nuage comme un grand processus
technologique. Récemment, l'industrie informatique augmente pour fournir une plate-forme
en tant que service (Pâques) et logiciels en tant que service (R) pour les consommateurs et les
entreprises, quel que soit l'emplacement et le temps, ainsi que le nombre de systèmes
d'exploitation cloud existants. Dans cette section, nous avons comparé certains des systèmes
d'exploitation représentatifs du cloud : (Buyya et Al, 2008) (Zertal, 2019)

Amazon Elastic Compute Cloud5 propose un calcul élastique à partir d'un environnement
informatique virtuel que l'utilisateur peut effectuer des applications Linux en fonction du
programme. L'utilisateur peut créer un nouveau périphérique Visual Amazon avec des
applications, des bibliothèques, des données, des paramètres de configuration ou de la
bibliothèque AMIs. Après le démarrage, l'utilisateur doit charger les AMIs créées vers (Simple
Storage Service (S3), avant de démarrer, d'arrêter et de surveiller des AMIs. Amazon EC2
facture à partir de l’activation de l’instance, tandis que la facture Qu’Amazon S3 pour chaque
transfert de données (téléchargement ou transfert). (Zertal, 2019)

Google App Engine6 peut effectuer des applications Web à l'aide de la langue de
programmation Python. En plus de soutenir la bibliothèque Python standard, le joueur de
programme prend également en charge les API (Application Programming Interfaces) pour
les bases de données, les comptes Google, les recherches rotatives, les images et les services
de messagerie. L'application Google propose également un contrôleur de gestion Web, vous
pouvez facilement gérer des applications Web. L'application Google utilise actuellement 500
Mo de stockage et environ 5 millions de pages par mois. (Zertal, 2019)

Microsoft Windows Azure7 est une plate-forme de liste basée sur un système d'exploitation
en nuage qui permet aux développeurs de créer leurs propres plans basés sur un ensemble
standard tel que REST, SOAP où http. Il s’agit d’une offre d’hébergement Web (programmes,
données) et services (flux de travail, stockage, synchronisation de données, boîte de messages,
contacts ...). Avec un ensemble d’API, vous pouvez utiliser cette plate-forme et cet accès et
des services connexes. L'environnement exécutif (« Environnement de vie ») permet d'intégrer

5
https://aws.amazon.com/fr/ec2/
6
http://appengine.google.com
7
https://azure.microsoft.com/fr-fr/

47
Chapitre V : Cloud Computing

de près les systèmes d'exploitation les plus importants (Windows, Mac et Windows Phone).
(Zertal, 2019)

Salesforce.com8 : est un éditeur logiciel basé à San Francisco aux États-Unis. Cette
application distribue la gestion en ligne et organise des applications métier. La société est une
société internationale de ses solutions en CRM, grâce à son outil de gestion de la relation
client historique, pionnier de SaaS. (Zertal, 2019)

V.9. Cloud et la virtualisation

Cette technologie courante (virtualisation) ignore les détails physiques du matériel et fournit
une virtualisation des ressources à un niveau d'application très élevé. La virtualisation est le
fondement du Cloud Computing car elle permet de regrouper les ressources informatiques
dans un groupe de serveurs et de les allouer dynamiquement aux applications dans un
environnement virtuel dédié.

En bref, le cloud s'appuie sur la technologie de virtualisation pour atteindre l'objectif de


représentation dynamique des ressources informatiques basées sur des outils. (Zertal, 2019)

V.10. Conclusion
Le cloud computing est une technologie apparue y a quelques années, aujourd’hui cette
technologie est utilisée dans tous les domaines par une grande majorité des entreprises.
Comme y a des solution Cloud payante qui allouent des ressources ainsi que des services, on
trouve des solutions gratuites afin de construire un propre cloud avec des ressources choisies
selon la disponibilité des moyens.
Le chapitre présente l’aspect sécurité dans le cloud computing.

8
https://www.salesforce.com/

48
Chapitre VI : la Sécurité dans le Cloud Computing

Chapitre VI : la Sécurité dans le Cloud Computing

VI.1. Introduction

Avec l'augmentation de l'activité en ligne, de plus en plus d'informations sont collectées sous
forme de données chaque jour. Ainsi, le cloud stocke plus de données que jamais (contrairement
aux ordinateurs). Il existe trois types de Clouds : public, privé et hybride. Le cloud public est le
plus répandu. Les ressources (serveurs et dispositifs de stockage tels que le matériel, les
logiciels et leur infrastructure) appartiennent à des tiers et les contrôlent. Un cloud privé
contient des ressources gérées par une organisation mais pouvant être hébergées par des tiers.
Le cloud hybride offre le meilleur des deux Clouds en transférant les données entre les Clouds
publics et privés. Cela permet à l'entreprise de stocker des informations sensibles dans son cloud
1
tandis que d'autres services sont stockés dans le cloud public. (Muheidat et Al, 2021)
(Eghbali, 2021)

Le but du logiciel de sécurité des données de Cloud Computing est de protéger les données
numériques de toute menace à leur sécurité. Les données stockées sur Internet contiennent
souvent des informations sensibles (adresse, détails de paiement, dossiers médicaux, etc.) qui
peuvent être utiles aux cybercriminels. Certaines mesures de sécurité sont utilisées pour faire
face aux cybermenaces et aux vulnérabilités. Vous voulez empêcher la fuite d'informations
personnelles que les gens pourraient exposer. (Hay et al, 2011)
Les données doivent être protégées pendant la transmission. Lors du passage d'un réseau à un
autre (mobile, Wi-Fi, etc.), vous pouvez surmonter le pare-feu et réduire le niveau de sécurité
et de protection des données dans le cloud. Si vous souhaitez acheter un logiciel de sécurité
pour protéger vos données, assurez-vous qu'il couvre les données transférées (ce qu'il fait
généralement). (Kanwal et Al, 2021)
VI.2. Les vulnérabilités dans la sécurité du Cloud
Cependant, le Cloud Computing est un défi majeur pour les fournisseurs de services, leurs
clients et bien sûr pour les attaquants étrangers. Des milliers de giga-octets d'informations
provenant de divers clients sont stockés en un seul endroit et affichés sur Internet. C'est une
cible idéale pour des centaines d'utilisateurs malveillants. Exemple : Logiciels espions de
l'industrie : imaginez à quel point les données clients sont attrayantes pour des milliers

1 https://blog.avast.com/fr/data-security-issues-in-cloud-computing

49
Chapitre VI : la Sécurité dans le Cloud Computing

d'entreprises exposées à Internet. C'est exactement ce qui est arrivé à l'un des fournisseurs de
services cloud en ligne les plus populaires : SalesForce.com. 2
La sécurité est un aspect qui doit être pris en compte lors de la création d'un cloud. L'adoption
de technologies basées sur le cloud est inévitable, mais des précautions doivent être prises pour
garantir que les avantages potentiels de l'adoption ne sont pas compromis par des risques de
sécurité. (El Alloussi et Al, 2012) (Hay et Al, 2011)
La sécurité informatique joue un rôle important dans la mise en place du Cloud Computing. En
fait, selon une étude récente, la sécurité est le plus grand défi auquel sont confrontés les
responsables informatiques qui souhaitent utiliser des solutions et des services hébergés dans
le cloud. (Kanwal et Al, 2021)
Selon le rapport élaboré par l'ENISA à la fin 2009, les menaces au Cloud Computing peuvent
être classées comme suit :
VI.2.1. La perte de maîtrise de gouvernance :
Le client qui commande le service de cloud computing prend en charge une partie de la gestion
de l'infrastructure technologique du fournisseur. Dans ce cas, le Service Level Agreement
(SLA) devrait jouer un rôle important dans la représentation des intérêts du client. (El Alloussi
et Al, 2012) (Hay et Al, 2011)
VI.2.2. Isolement des environnements et des données :
Le partage des ressources est une caractéristique clé du Cloud Computing. Par exemple,
plusieurs clients peuvent partager le même serveur physique. Si la séparation des
environnements n'est pas assez efficace, il peut y avoir un « afflux » entre les clients. Si
plusieurs clients locataires se trouvent dans un environnement partagé, deux types d'attaques
sont possibles, d'une part les "Guest-hopping" et d'autre part directement contre leurs
supérieurs. (El Alloussi et Al, 2012) (Hay et Al, 2011)
VI.2.3. Risques de conformité :
L'externalisation de certains services et processus de base peut rendre la conformité aux lois sur
la protection des données et aux normes réglementaires telles que PCI DSS et ISO 27001
beaucoup plus difficile. Les fournisseurs de services peuvent restreindre l'inspection de leur
infrastructure. (El Alloussi et Al, 2012) (Hay et Al, 2011)
VI.2.4. La publication des interfaces de gestion

2 https://blog.avast.com/fr/data-security-issues-in-cloud-computing

50
Chapitre VI : la Sécurité dans le Cloud Computing

Les interfaces de gestion des services contractuels (par exemple dans le modèle SaaS) sont
fournies directement dans le réseau. Cela augmente le risque par rapport aux systèmes
classiques dans lesquels les interfaces de gestion ne sont accessibles que via des réseaux
internes. (El Alloussi et Al, 2012) (Hay et Al, 2011)

VI.2.5. La protection des données :


La protection des données est difficile pour les clients des services de Cloud Computing. Il est
très sûr de diffuser les données sur différents sites Web. Assurer une bonne gestion des données
est également complexe car le contrôle des transferts de données échappe au contrôle du
propriétaire.
VI.2.6. La suppression dangereuse ou incomplète des données
Historiquement, dans le passé, la suppression en toute sécurité des données était un problème
complexe et nécessitait un certain nombre de processus pour s'assurer qu'il n'y avait aucune
copie des données où que ce soit. La réutilisation des ressources matérielles est très courante
dans le Cloud Computing. Par exemple, un nouveau client qui, jusqu'à récemment, disposait
des données d'un autre client peut se voir attribuer une partition de stockage. Cela peut entraîner
une perte de confidentialité si les données précédentes ne sont pas supprimées complètement et
en toute sécurité.
VI.2.7. Les utilisateurs malveillants
Le Cloud Computing nécessite des profils de haut niveau pour le gérer. L'administrateur
système a tous les droits de différentes sources de différents clients. Un utilisateur malveillant
qui réussit à compromettre la sécurité du système et à entrer dans une session administrative a
accès à de grandes quantités d'informations client.
VI.3. Les risques classiques : application sur le Cloud
Les risques de sécurité des données dans le cloud ne sont pas en dehors du domaine des risques
globaux des technologies de l'information, mais ils constituent des faiblesses et doivent être pris
en compte lors de l'examen de la sécurité des données. Ces risques incluent le phishing, l'accès
privilégié au cloud et la source ou la source des données elles-mêmes. 3
VI.3.1. L’hameçonnage :
L'hameçonnage est un risque indirect pour les données qui sont déplacées vers le cloud. Alors
qu'aujourd'hui, il est généralement impossible de déchiffrer l'infrastructure à clé publique (et

3 https://blog.avast.com/fr/data-security-issues-in-cloud-computing

51
Chapitre VI : la Sécurité dans le Cloud Computing

ainsi d'effectuer l'authentification et le chiffrement), nous pouvons tromper les utilisateurs


finaux et voler notre crédibilité dans le cloud. Le phishing n'est pas une nouvelle menace dans
le monde de la sécurité, mais c'est une menace supplémentaire pour la sécurité du cloud. Voici
quelques exemples de protections mises en place par certains fournisseurs de cloud pour lutter
contre les attaques de phishing :
 Filtrage de la connexion chez Salesforce.com : Salesforce.com a mis en place une fonction
pour restreindre l'accès à une instance spécifique d'une application CRM. Par exemple, un client
peut demander à Salesforce.com de ne pas accepter les connexions, même si elles sont valides,
sauf si la connexion provient d'un groupe d'adresses IP sur la liste blanche. Cela peut être très
efficace pour empêcher les attaques de phishing en bloquant une connexion de pirate à moins
qu'elle ne provienne d'un groupe connu d'adresses IP. (El Alloussi et Al, 2012)
 Re-vérification des sessions connectées et de mot de passes chez Google Apps / Docs /
Services : De nombreux services Google demandent accidentellement aux utilisateurs de
ressaisir leur mot de passe, en particulier lorsqu'ils remarquent un événement suspect. Soit dit
en passant, de nombreux services Google affichent l'adresse IP de la session précédente en
signalant automatiquement un événement suspect, comme la connexion depuis la Chine
immédiatement après l'enregistrement de l'adresse IP américaine pour le même compte.
 L'authentification chez Amazon Web Services : Amazon prend la crédibilité du cloud très
au sérieux. Par défaut, lorsqu'un abonné utilise EC2 pour exécuter un nouveau serveur virtuel,
Amazon crée une clé PKI forte et ces clés doivent être utilisées pour authentifier la ressource.
Si vous utilisez une nouvelle machine virtuelle LINUX et souhaitez utiliser le protocole SSH,
vous devez utiliser SSH avec authentification par clé et sans mot de passe fort. Cependant, ces
méthodes ne sont pas nécessairement de bons traitements contre le phishing. La meilleure
protection est de former l'utilisateur à repérer les communications frauduleuses. Voici quelques
questions sur la protection contre le phishing pour votre fournisseur de cloud :
 Surveillance de l’URL de référence : Le fournisseur de cloud surveille-t-il activement les
URL pointant vers des sessions vérifiées ? Une attaque de phishing ciblant les clients peut
résulter d'une URL usurpée ou usurpée.
 Surveillance des comportements : Le fournisseur de services cloud n'utilise-t-il pas les
politiques et procédures choisies par la marque (les attaques de phishing utilisent souvent des
compromis pour tromper les utilisateurs) ? Une politique de sécurité exécutoire interdit-elle les
activités exploitables et peu sécurisées (exploitables) ? Par exemple, s'ils bloquent l'envoi d'e-
mails contenant des liens sur lesquels les utilisateurs peuvent cliquer pour interagir
automatiquement avec leurs données. Un autre exemple est l'autorisation de réinitialiser un mot
52
Chapitre VI : la Sécurité dans le Cloud Computing

de passe sans vérifier l'identité de l'utilisateur via un agent de vérification (c. téléphone mobile
du téléphone de l'utilisateur). Le phishing est largement considéré comme une menace, car la
plupart des services cloud utilisent désormais une interface utilisateur simple avec
authentification par nom d'utilisateur et mot de passe. Si un attaquant peut obtenir des licences,
il est très difficile de l'empêcher d'y accéder. (El Alloussi et Al, 2012) 4
VI.3.2. Personnel du fournisseur Cloud avec un accès privilégié :
D'autres risques possibles de la sécurité des données dans le cloud ne conviennent pas aux
données sensibles au client par le personnel du cloud. Clairement approuvé, les services de
sortie, à la fois dans le nuage ou non, ils peuvent supprimer des contrôles classiques avec des
organisations informatiques généralement par le biais de contrôles physiques et logiques. Ce
risque est deux facteurs importants : premiers, riches et secondes, il existe un personnel de
service cloud distinct. L'évaluation de ces risques est déterminée à définir les pratiques de
sécurité des fournisseurs de services et des employés de ce fournisseur avec un accès distinctif
au cloud ne peut pas ouvrir les informations client.
VI.3.3. L’origine des données :
Lorigine, Intergrity et Databon sont un grand soin dans le cloud Computing. Larin ou données
dans de nombreuses régions, y compris des inventions ou une preuve de données précieuses
définies sur la base de l'analyse de l'information indépendante en général. Pour atteindre des
objectifs, certains enregistrements de données développés sont créés dans le cloud public,
lorsque le stockage est effectué, quel type de machines virtuelles et de stockage ont été créés et
où il a été traité. En fait, il peut être important de prouver que certains ensembles de données
ne sont pas transférés dans un cloud. Bien que le suivi des données et l'exportateur puissent être
très importants pour des raisons organisationnelles, cela peut le faire dans le cloud public. Cela
est très dû à la performance physique réelle des ressources physiques, telles que les lecteurs, les
serveurs et les ressources standard que l'utilisateur du cloud peut accéder. Les perspectives
peuvent être des fournisseurs en termes de mécanismes techniques impossibles pour des raisons
de sécurité. (El Alloussi et Al, 2012)
VI.4. La colocation : un risque supplémentaire pour la sécurité dans le Cloud
La compilation sécurisée est l'hébergement d'applications et de données pour plusieurs clients
(entreprises, organisations, entités, etc.) dans le cloud au sein d'une même infrastructure

4 https://blog.avast.com/fr/data-security-issues-in-cloud-computing

53
Chapitre VI : la Sécurité dans le Cloud Computing

physique partagée,
notamment pour la sécurité au
sens de la
confidentialité. Elle sera
paramétrée.

Figure VI.1. Cas d’une colocation (El Alloussi et Al, 2012)


En effet, les clients cloud veulent s'assurer que leurs données et leurs traitements sont bien
séparés et protégés des autres environnements hébergés sur une infrastructure commune. Il
s'agit souvent d'une obligation légale, par exemple lorsqu'une entreprise stocke un numéro de
carte bancaire ou des informations personnelles et médicales...

Comment répondre à ces deux exigences de confidentialité et d'efficacité de l'infrastructure


cloud à tous les niveaux : machines virtuelles, serveurs hôtes, réseaux (Ethernet et SAN) et
stockage ?

Outre l'application stricte des principes de base de la sécurité des systèmes d'information
partagés (planification soignée des droits d'accès, droits d'administrateur, mots de passe
sécurisés, etc.), certaines technologies ou infrastructures permettent d'évoluer vers cet objectif.
Voici quelques exemples. (El Alloussi et Al, 2012)

VI.4.1. Le cryptage des données :


Le chiffrement est d'emblée attractif, notamment la procédure classique clé publique/clé privée
: seul le destinataire de l'information peut déchiffrer les données attribuées avec la clé privée

54
Chapitre VI : la Sécurité dans le Cloud Computing

connue de lui seul, mais pas le fournisseur de l'information. Solution trouble et encore moins
que n'importe quel autre colocataire. Il s'agit d'une méthode très sécurisée (selon la taille de la
clé) et facultative car vous ne pouvez crypter que ce qui est nécessaire.

Cependant, le chiffrement s'accompagne de considérations d'implémentation. Notamment dans


les cas où un traitement est nécessaire (calcul, indexation, archivage) pouvant nécessiter le
traitement de données décryptées. (El Alloussi et Al, 2012)
VI.4.2. Solutions d’étanchéité logiques :
L'utilisation de solutions logiques flexibles fournit des ressources pour différents groupes
d'utilisateurs sûrs. Au niveau VM, le virtuel de lucidité peut être utilisé sur le périphérique hôte
où des sections et des ordinateurs virtuels sont utilisés. Les réseaux virtuels locaux permettent
la circulation dans Ethernet. Les scores de stockage virtuels sont scellés dans l'espace de
stockage. Une autre approche : on peut penser à la solution d'adulte la plus importante et la plus
importante dans chaque couche (meilleure "approche" désigne le meilleur de sa classe), qui
garantit une certaine indépendance lors du choix de toute solution, mais la nécessité d'assurer
une intégration de qualité assure une sécurité différente. Solutions dans chaque couche. Ce n'est
pas parce que chaque couche est sûre que tout sera (nous devrions faire attention à la mauvaise
liaison et la relation entre différentes couches) une autre approche consiste à conserver la
solution d'infrastructure de rack comme source ou groupe de fournisseurs. Nous perdons
l'indépendance car différents composants (serveur, réseau et stockage) sont appliqués, mais
nous allons gagner l'intégration et la sécurité. Pour simplifier les solutions communes et
améliorer la confidentialité, l'unification de certaines sociétés a mis des solutions complètes et
/ ou des guides de conception complète pour résoudre les fournisseurs de services cloud. La
deuxième approche : le joint logique et la machine virtuelle à disques (baie de stockage partagée
ne se divise pas en sections imperméables virtuelles), via le réseau, ne montrent donc pas
d'informations sensibles. (El
Alloussi et Al, 2012)
VI.5. Les différentes
solutions
VI.5.1. Plateforme de confiance basée sur le TPM :

55
Chapitre VI : la Sécurité dans le Cloud Computing

Figure VI.2. Une puce TPM (El Alloussi et Al, 2012)


Trusted Computing Group (TCG), un groupe de sociétés informatiques (Compaq, HP, IBM,
Intel, Microsoft, AMD, etc.) axé sur la sécurité des ordinateurs et des communications, a
proposé un certain nombre de technologies matérielles et logicielles par Confidants possibles.
Lit, fond. TCG a même introduit une norme pour la conception sécurisée des puces TPM qui
est désormais livrée avec le matériel d'origine. Le TPM contient une clé privée de confiance qui
identifie le TPM (et donc l'hôte physique), ainsi que certaines fonctionnalités de chiffrement
qui ne peuvent pas être modifiées. Les fabricants concernés signent la clé publique
correspondante pour garantir l'exactitude de la puce et la validité de la clé. Les systèmes
d'exploitation de confiance s'appuient sur les capacités des puces TPM pour permettre
l'authentification à distance. Le mécanisme fonctionne comme suit : pour démarrer la plate-
forme, gérer une liste L cohérente de mesures et une séquence de tables logiques piratées
impliquées dans la séquence de démarrage, enregistrer le BIOS, la logique du chargeur de
démarrage avec la plate-forme Logic. Cette liste est stockée en toute sécurité dans le TPM hôte.
Pour prouver la plate-forme, le côté externe de la plate-forme s'exécutant sur le serveur est

interrogé avec un numéro existant. La plate-forme demande au TPM local de générer un


message contenant à la fois la liste L et le numéro crypté avec la clé privée de la puce TPM.
L'hôte envoie le message à un tiers qui peut le déchiffrer avec la clé publique associée et ainsi
authentifier l'hôte. En vérifiant que les nonces sont compatibles et que la L-List a la
configuration souhaitée, le client distant peut en savoir plus sur la plate-forme sur un hôte non
fiable.

56
Chapitre VI : la Sécurité dans le Cloud Computing

Figure VI.3. Mécanisme d’accès dans une plate-forme de confiance (El Alloussi et Al,
2012)
Étant donné qu'une plate-forme de confiance traditionnelle peut effectuer le traitement sur un
hôte sécurisé, le moyen naturel de sécuriser le service IaaS consiste à déployer la plate-forme
sur chaque nœud de l'assurance de service. Cependant, cette approche est insuffisante : un
administrateur système peut déplacer une machine virtuelle d'un client vers un nœud passif sur
la plate-forme, soit lors du démarrage du VMIS (en utilisant la manipulation CM) soit volé
pendant qu'une machine virtuelle est en cours d'exécution (en utilisant Depuis les relais). Par
conséquent, le mécanisme de certification de la plate-forme ne garantit pas que la liste de
critères reçue du client distant correspondra à la configuration réelle de l'hôte sur lequel la
machine virtuelle s'exécute (ou dans le futur). Par conséquent, l'authentification à distance de
TCCP doit garantir que les fonctions de sécurité de la plate-forme restent en arrière-plan.
VI.5.2. Cryptage des données : applications et limites
Une caractéristique de la sécurité des données et du traitement des données dans le cloud est la
distinction entre les données statiques et les données mobiles. En effet, le cryptage des données
statiques est différent de l'utilisation du cryptage pour protéger les données en transit ou en
mouvement. Le principal avantage est que les clés de chiffrement doivent être temporaires,
tandis que les clés des données statiques peuvent être conservées tant que les données stockées
sont chiffrées. Ce formulaire en ligne ne fonctionne pas. La plupart des données stockées sur
Internet sont destinées à être utilisées par les utilisateurs et sont principalement destinées à être
utilisées par d'autres ordinateurs. Le problème est que les humains ne peuvent pas stocker les
clés de chiffrement. Il doit être stocké sur le même ordinateur ou au moins sur le réseau où se
trouvent les données. Beaucoup plus dangereux (Winkler, 2011) (Muheidat et Al, 2021)
Application de cryptage pour les données en mouvement.
Les deux objectifs de la sécurité des données pendant le transport sont d'éviter le
raccourcissement (intégrité) des données et de garantir la confidentialité des données en
mouvement. À l'exception de l'expéditeur et du destinataire, aucune autre partie ne devrait avoir
la possibilité de modifier les données. Le moyen le plus courant de protéger les données en
transit consiste à utiliser le cryptage avec l'authentification pour créer un canal permettant
d'envoyer en toute sécurité des données vers ou depuis le cloud. (Winkler, 2011) (Muheidat
et Al, 2021)

Le cryptage est utilisé pour garantir que la confidentialité des données est maintenue en cas de
violation de l'intégrité de la communication. L'authentification est utilisée pour garantir que les

57
Chapitre VI : la Sécurité dans le Cloud Computing

parties qui s'envoient les données peuvent être dignes de confiance. Le transfert de données via
un logiciel, le transfert manuel de fichiers ou via un navigateur utilisant HTTPS, TLS ou SSL
sont des protocoles sécurisés utilisés pour ce type de problèmes. La clé PKI est utilisée pour
authentifier les transactions et les algorithmes de cryptage pour protéger les données réelles.
Obstacles du cryptage dans le Cloud. (Winkler, 2011)
Par exemple, un cloud SaaS public ne peut naturellement pas permettre aux abonnés de chiffrer
leurs données. Cela peut être dû aux limitations fonctionnelles du service lui-même. Le cryptage
ne peut pas être utilisé avec les réseaux sociaux actuels tels que Facebook, MySpace et LinkedIn
pour garantir la confidentialité des données personnelles. Malheureusement, cela n'affecte
même pas les modèles de revenus. Si Facebook autorise le cryptage SaaS, comment pouvons-
nous cibler les clients avec des publicités plus efficaces et pertinentes pour les activités que
vous proposez ? Lorsque vos données sont cryptées, des aspects du modèle commercial du
fournisseur sont compromis. (El Alloussi et Al, 2012) (Winkler, 2011)
VI..5.3. Le HAIL : une solution RAID pour le Cloud
High Availability and Integrity Layer (HAIL) est un système de chiffrement distribué qui
permet à un groupe de serveurs de prouver au client qu'un fichier stocké est sûr et récupérable.
Il renforce, standardise et simplifie formellement les différentes méthodes de la communauté
cryptographique et des systèmes distribués. Le répertoire HAIL est géré efficacement par les
serveurs et est très compact, généralement des dizaines ou des centaines d'octets, quelle que soit
la taille du fichier. HAIL vérifie à nouveau le partage de fichiers et le réinitialise. Ce programme
est puissant contre un adversaire actif et mobile, c'est-à-dire qu'il peut détruire progressivement
tous les serveurs. Ce paradoxe puissant et formel de la grêle offre une analyse précise et une
sélection de critères. Nous expliquons comment HAIL améliore la sécurité et les performances
des outils existants, tels que Proof of Recovery (PoR), qui est déployé sur des serveurs distincts.
(El Alloussi et Al, 2012)
Comment ça marche ?

58
Chapitre VI : la Sécurité dans le Cloud Computing

Avec HAIL, le client distribue à plusieurs reprises un fichier F à n serveurs et maintient sa


position localement. Le but de HAIL est d'assurer la flexibilité face à un adversaire en
mouvement. Ces types d'ennemis puissants peuvent endommager tous les serveurs pendant la
durée de vie du système. Supposons qu'un adversaire mobile ne puisse contrôler b que sur n
serveurs en même temps. Dans ce contexte, nous appelons un pas de temps une période.
Figure VI.4. La répartition d’un fichier selon le modèle HAIL (El Alloussi et Al, 2012)
À chaque période, le client qui possède F (ou peut-être une autre personne représentant le client)
effectue une série de tests pour évaluer l'intégrité de F dans le système. Si une corruption est
détectée sur certains serveurs, F peut être restauré à partir du plugin sur des serveurs sains et
remplacé par des serveurs défectueux connus. Des contrôles de sécurité et des réparations
réguliers sont essentiels pour garantir la disponibilité des données contre un ennemi mobile :
sans contrôles de sécurité, un ennemi mobile peut à son tour endommager tous les serveurs à
différentes distances et à volonté.
Système de réplication :
Le premier concept de HAIL est de répéter F sur chacun des n serveurs. La redondance peut
être utilisée pour vérifier à travers ces serveurs. Pour effectuer un contrôle d'intégrité, le client
sélectionne simplement un fichier de bloc aléatoire à la position j et récupère le bloc Fj ou F
approprié de chaque serveur. Étant donné que tous les blocs de retour sont les mêmes, le client
conclut que F est correct dans cette position. S'il trouve une incompatibilité, il reconstruit F (en
utilisant le déchiffrement majoritaire sur les serveurs) et supprime/remplace les serveurs
défaillants. En analysant plusieurs fichiers, le client peut augmenter la probabilité de découvrir
une corruption. La limitation de cette approche, cependant, est que le client n'est qu'une petite

partie de F. Celui qui était à l'origine dans F. Par conséquent, cette méthode simple est
vulnérable aux attaques par crawling. L'attaquant prend un emplacement aléatoire i et modifie
59
Chapitre VI : la Sécurité dans le Cloud Computing

la valeur du bloc principal F & sub1; à la valeur de l'E & sub1 endommagé; sur tous les serveurs
endommagés au cours d'une période donnée.
Système de réplication avec PoR :
Pour résister davantage aux attaques, il est recommandé d'utiliser un système Recovery Proof
(PoR) sur chacun des n serveurs. Dans un système PvE à serveur unique, F est codé sous un
code de correction d'erreur (ou code de balayage) que nous appelons code serveur dans HAIL.
Le code serveur renforce chaque instance de F contre les tentatives de blocage.
Code de dispersion avec les PoR :
Pour réduire la charge de stockage pour la duplication avec PoR, il existe un moyen astucieux
de créer une redondance entre les serveurs de fichiers. Au lieu de dupliquer le fichier F sur les
serveurs, il est possible de le distribuer avec du code de débogage (ou code d'effacement). Dans
la grêle, il est connu comme un symbole de distraction. Dans HAIL, chaque bloc d'un fichier
est distribué aux serveurs séparément selon la distribution de n codes.

Figure VI.5. La répartition d’un fichier selon le modèle HAIL et en utilisant le code de
dispersion (El Alloussi et Al, 2012)

60
Chapitre VI : la Sécurité dans le Cloud Computing

VI.6. Conclusion
Le phénomène du cloud computing est inévitable. De nombreux responsables informatiques
sont préoccupés par la gestion de la sécurité requise pour le cloud computing. Cependant, ces
risques sont compensés par les avantages du cloud computing. Les gestionnaires et les
directeurs financiers préfèrent économiser de l'argent, et le responsable de la sécurité doit faire
face à plusieurs risques liés à la sécurité du cloud computing. Le cloud n'est pas une nouvelle
technologie, mais une nouvelle façon de faire les choses dans le domaine des technologies de
l'information. Il est toujours difficile de résister au changement et les professionnels de la
sécurité de l'information doivent prendre en charge le développement du cloud afin que les
utilisateurs puissent profiter des grands avantages du cloud.

61
Conclusion

Conclusion Générale
Le présent polycopié a décrit le détail du module Virtualisation est Cloud Computing destiné
aux étudiants de la cinquième année ingéniorat à l’ESI-SBA, nous avons montré l’essentiel des
deux grandes parties « Virtualisation » et « Cloud Computing ».
Les quatre premiers chapitres été sur la virtualisation et son utilisation via les installations de
différents hyperviseurs ainsi que la virtualisation des machines, de stockage et des réseaux ;
Les deux derniers chapitres décrit l’essentiel du Cloud Computing avec les utilisations, les
modes de déploiement, les types et les domaines d’application ainsi que l’utilisation du Cloud
dans les entreprises et l’étude de la sécurité dans le cloud ;
Nous comptons ajouter à chaque fois de nouvelles connaissances au cours et au TP, tels que les
nouvelles stratégies de sécurité dans le cloud, le passage du Cloud Computing au Fog
Computing (technologie nouvelle) ;

62
Activités
Pratiques
Niveau : 3ème Année Second Cycle
Module : Cloud Computing

Activité Pratique 1

Objectif général Etudier et manipuler pratiquement des outils de virtualisation.

- Etudier et comparer des outils de virtualisation.


Objectifs Spécifiques
- Créer, configurer et faire communiquer des machines virtuelles.

Mots clés virtualisation, hyperviseur de type1, hyperviseur de type 2…

64
Etude de cas : Virtualisation
Objectifs :
 Etudier et comparer des outils de virtualisation ;
 Créer, configurer et faire communiquer des machines virtuelles ;

Contexte générale : (Zertal, 2019)


Après avoir étudié théoriquement les principaux concepts liés à la virtualisation ; nous allons
essayer, à travers cette étude, d’étudier et de manipuler quelques outils de virtualisation.
Cette activité comporte deux parties :

- La première partie est purement théorique dans laquelle vous allez étudier un outil de
virtualisation (chaque étudiant choisit un outil/hyperviseur) pour réaliser à la fin une étude
comparative des principaux outils de virtualisation selon certains critères.
- La deuxième est consacrée à une utilisation pratique de ces outils choisis par les étudiants.

Conditions de réalisation :
 Durée de réalisation : 3 semaines (partie 1 : 1 semaine ; partie 2 : 2 semaines)

 Travail à réaliser en binôme ou trinôme.

 A rendre :

 1 rapport théorique de la 1ère partie

 1 manuel de création, de configuration et d’utilisation des machines virtuelles

Partie 1 (la partie théorique) :


Il s’agit de répondre aux questions suivantes :

- Après avoir choisis un outil de virtualisation, effectuez une présentation et une étude de cet
outil, en se basant sur des critères tels que : types de virtualisation, OS supporté, sécurité, Noms
des solutions commerciales, Clients majoritaires, Arguments de vente, Exemples de clients,
Part de marché …

Partie 2 (TP) :
Vous devrez réaliser votre TP en choisissant une des études de cas citées ci-dessous :

I. Etude de cas n°01 (manipulation d’un hyperviseur de type2)


Vous êtes un développeur dans une petite entreprise et vous travaillez sur une application
multiplateforme qui sera utilisée en interne uniquement. L’entreprise dispose de machines
Android, Windows et Linux et vous souhaitez tester si votre application fonctionne
correctement dans cet environnement complexe, sachant que pour fonctionner elle doit
pouvoir :

65
 Envoyer régulièrement des requêtes aux autres machines ;
 Récupérer les mises à jour de sa base de données depuis un serveur distant accessible via une URL.

Travail demandé
Pour réaliser le travail demandé, vous devrez suivre les étapes suivantes :

1. Installation de l’hyperviseur.
2. Création de de la VM : nous allons créer ici 3 VM :
 1 VM Ubuntu;
 1 VM Windows 10;
 1 VM Android.
3. Configuration réseau
Vous allez essayer différents modes de réseau et pour chaque mode vous récupérer l’adresse IP
des MV
- Expliquez le lien entre l’adresse IP et le mode de réseau choisi ?
- Choisissez le mode réseau le plus adapté à votre étude de cas ?
4. Dupliquer, transporter, importer et exporter une VM.
 Dupliquer : Clic droit sur la VM -> manage -> clone -> linked clone (besoin de l’original pour
fonctionner) ou full clone (prend plus de place)
 Transporter : Clic droit sur la VM -> manage -> share -> move the virtual machine
 Importer : Cela se fait lors de la création d’une nouvelle machine -> choisir un fichier existant

 Exporter : File -> Export to OVF


5. Partager des documents entre la VM et l’hôte.
Installation de VMWare Tools requise sur l’hôte et le client.
Clic droit -> Settings -> Options -> Shared folders Folder Sharing -> always enabled + Folder
(sélection d’un dossier + nom, possibilité de lecture seule) Lancement de la VM -> On retrouve
le dossier partagé.
6. Partager des périphériques entre la VM et l’hôte.
VM -> Removable Devices -> TOSHIBA -> Connect
7. Utiliser les instantanés (snapshots) :
Créer et restaurer. Un snapshot sert à sauvegarder l’état entier de la machine à un moment
donné. On peut créer plusieurs snapshots les unes à la suite des autres. Une fois la VM est
lancée, onglet VM -> Snapshot -> Take Snapshot (on rentre le nom et la description). Pour voir
les snapshots, onglet VM -> Snapshot -> Snapshots Manager. On peut également faire ces
opérations à l’aide de boutons situés sur la barre des tâches de VMWare Workstation.
8. Mettre les VMs dans un réseau privé.

66
II. Etude de cas n°02 (manipulation d’un hyperviseur de type1)
Une petite entreprise de vente en ligne composée de 5 personnes dispose dans son infrastructure
réseau de (cf. Figure 1) :
1 serveur mail ;
1 serveur web pour héberger son site ;
1 NAS pour stocker les fichiers et documents de travail des employés
Figure 1 : L’architecture demandée de TP

Travail demandé
1- Installer ESXi + configuration réseau (cf. Figure 2)

Figure 2 : L’installation demandée

2- Accéder à ESXi via un client web pour créer des VM


3- Faire communiquer les VMs entre elles.

67
Niveau : 3ème Année Second Cycle
Module : Cloud Computing

Activité Pratique 2

Objectif général Découvrir et essayer pratiquement des Clouds


 Etudier la possibilité de migrer une application vers le
Objectifs Spécifiques Cloud.
 Découvrir et essayer pratiquement des Clouds.

68
Etude de cas : Cloud Computing
Objectifs :
 Etudier la possibilité de migration vers le Cloud, identification des opportunités
et des bénéfices
 Découvrir et essayer pratiquement des Clouds ;
Contexte générale : (Zertal, 2019)
Après avoir étudié théoriquement les principaux concepts liés au Cloud ; nous allons
essayer, à travers cette étude, de découvrir et d’essayer pratiquement des Clouds.
Cette activité comporte deux parties :
- La première partie est purement théorique dans laquelle vous allez réaliser une étude
pour tester la capacité de migrer les services de votre entreprise (la mairie selon notre
étude de cas) vers le Cloud.
- La deuxième est consacrée à une utilisation pratique des services Cloud.
Conditions de réalisation :
 Durée de réalisation : 4 semaines  partie 1 : 1 semaine ; partie 2 : 3 semaine

 Exposés pratiques : 2 séances = 6 heures

 Travail à réaliser en binôme ou trinôme.

 Livrables :

 1 rapport théorique de la 1ère partie

 1 rapport d’utilisation des services Cloud : il s’agit dans cette activité, d’étudier et de
manipuler réellement des Clouds. On vous propose ci-dessous trois exemples de Cloud
sur le marché. On vous demande de consulter les différents sites indiqués, essayer des
services du cloud :
1. Cas d'amazon (AWS)
2. Cas de Google Cloud
3. Cas de Rackspace1

1
http://www.rackspace.com/cloud/
69
Bibliographie

1. Buyya, R., Yeo, C. S., & Venugopal, S. (2008). Market-oriented cloud computing: Vision, hype,
and reality for delivering it services as computing utilities. In High Performance Computing and
Communications, HPCC'08. 10th IEEE International Conference on, IEEE, 5-13.

2. Chandrasekaran, K. (2014). Essentials of cloud computing. CrC Press.

3. Danny, A. F. A. H. O. U. N. K. O. (2013). VIRTUALISATION.

4. Dumont, F. (2016). Analyses et préconisations pour les centres de données virtualisés (Doctoral
dissertation, Ecole des Mines de Nantes).

5. Eghbali, H. (2021). Cloud computing and security challenges.

6. El Alloussi, H., Fetjah, L., & Sekkaki, A. (2012). L’état de l’art de la sécurité dans le Cloud
Computing. INTIS 2012, 3.

7. FILLALI F.Z(2019) Cours Virtualisation des Systèmes, Université Abdelhamid Ibn Badis de
Mostaganem, Algérie.

8. F. Mouffok (2014) les Réseaux Virtuels VLAN.

9. GRASSA, N (2014). Cours Virtualisation et Cloud. Kairouan

10. Hay, B., Nance, K., & Bishop, M. (2011, January). Storm clouds rising: security challenges
for IaaS cloud computing. In 2011 44th Hawaii International Conference on System Sciences (pp.
1-7). IEEE.

11. Hess, K., & Newman, A. (2010). Virtualisation en pratique. Pearson.

12. Jean-Patrick Gelas (2012), Introduction à la virtualisation Cours Cloud Computing – M2


Université Claude Bernard – Lyon 1

13. Kanwal, I., Shafi, H., Memon, S., & Shah, M. H. (2021). Cloud Computing Security
Challenges: A Review. Cybersecurity, Privacy and Freedom Protection in the Connected World,
459-469.

14. Matoussi, S. (2021). User-Centric Slicing with Functional Splits in 5G Cloud-RAN (Doctoral
dissertation, Sorbonne université).

15. Mell, P. M., & Grance, T. (2011). Sp 800-145. The NIST Definition of Cloud Computing.
16. Mohamed MANAA Cours Virtualisation et Cloud Computing, University of Babylon, IRAK

17. Mohammed, C. M., & Zebaree, S. R. (2021). Sufficient comparison among cloud computing
services: IaaS, PaaS, and SaaS: A review. International Journal of Science and Business, 5(2), 17-
30.

18. Muheidat, F., & Tawalbeh, L. A. (2021). Mobile and cloud computing security. In Machine
Intelligence and Big Data Analytics for Cybersecurity Applications (pp. 461-483). Springer,
Cham.

19. Winkler, V. J. (2011). Securing the Cloud: Cloud computer Security techniques and tactics.
Elsevier.

20. ZERTAL Soumia Le Cloud et la Virtualisation (2019). Cours le Cloud et la Virtualisation,


Spécialité : Architecture Distribuée Université Larbi Ben M’hidi Oum El Bouaghi, Algérie.

View publication stats

Vous aimerez peut-être aussi