Virtualisationet Cloud Computing
Virtualisationet Cloud Computing
Virtualisationet Cloud Computing
net/publication/355186796
CITATIONS READS
0 14
1 author:
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Ishak H.A Meddah on 12 October 2021.
Polycopié pédagogique
Titre
Année : 2021
Tables des matières
Introduction Générale………………………………………………………………………..05
I.10. Conclusion………..……………………………………………………………………..14
Introduction
Le présent document présente un cours d’un module intitulée « Virtualisation et Cloud
Computing (VCL) », enseigné à l’Ecole Supèrieure en Informatique de Sidi Bel Abbes et
destiné aux étudiants de la troisième année Second cycle, la spécialité Systèmes
d’Informations et Web et la spécialité Ingénierie des Systèmes Informatique.
L’objectif de ce cours est d’aider les étudiants pour :
Une compréhension générale sur les principes de la virtualisation ;
Une Manipulation des différents principaux concepts de la virtualisation via
différents outils pratiques ;
Découverte des notions du Cloud Computing et ses applications liées à ce domaine ;
Connaissance des plateformes Cloud les plus connues.
Pour atteindre nos objectifs, nous sommes essayés de traiter ce travail sous plusieurs aspects
et de synthétiser les informations les plus pertinentes provenant de diverses sources (livres,
notes de cours, articles, sites Web...).
5
Chapitre I : Introduction à la Virtualisation
1
https://abtec.fr/virtualisation-definition/
2 http://yannickfeujiointernetgratuit.unblog.fr/2014/01/03/la-virtualisation-quest-ce-que-cest/comment-page-1/
3
https://www.memoireonline.com/01/19/10545/m_Migration-des-serveurs-physiques-vers-une-infrastructure-
virtuelle10.html
4
http://www.qsp-systems.com/la-virtualisation-mode-demploi/
5 https://doc.ubuntu-fr.org/virtualisation
6
Chapitre I : Introduction à la Virtualisation
7
Chapitre I : Introduction à la Virtualisation
I.7.1.2. Limitations : Avec ce type de virtualisation, vous pouvez virtualiser des systèmes
d'exploitation conçus avec une architecture matérielle similaire au processeur hôte physique.
Par exemple, un ordinateur équipé d'un processeur Intel x86 ne peut pas imiter un système
d'exploitation conçu pour fonctionner sur l'architecture PowerPC.
8
Chapitre I : Introduction à la Virtualisation
- Virtual Box
- VMWare Player, VMWare Workstation
- Parallels Desktop for Windows et Linux
- KVM
9
Chapitre I : Introduction à la Virtualisation
faire. Cette solution est très performante car peu focalisée (temps passé sur un système à ne
rien faire d'autre qu'à s'autogérer), mais les environnements virtuels ne sont pas totalement
isolés. (Grassa, 2014) (Zertal, 2019)
Il y a donc de la performance, mais on ne peut vraiment pas parler de simulation de système
d'exploitation virtuel. Ce n'est que sur les systèmes Linux que les isolateurs sont en fait
constitués de nombreuses parties et peuvent prendre de nombreuses formes différentes.
Par exemple : Linux-VServer (isolation des processus en espace utilisateur) ; chroot
(isolation changement de racine) ; BSD Jail (isolation en espace utilisateur) ; OpenVZ : libre,
(partitionnement au niveau noyau sous Linux) ;
LXC : libre, (usage des Cgroups du noyau Linux)
10
Chapitre I : Introduction à la Virtualisation
11
Chapitre I : Introduction à la Virtualisation
12
Chapitre I : Introduction à la Virtualisation
Exemple :
Wine6 est un logiciel qui permet d'exécuter certains programmes Windows sous Ubuntu.
6
http://www.winehq.org/
13
Chapitre I : Introduction à la Virtualisation
1) La virtualisation de réseaux
De manière générale, la virtualisation des réseaux consiste à partager la même infrastructure
physique (vitesses de liaison, ressources CPU du routeur, etc.) au profit de plusieurs réseaux
virtuels isolés. Le VLAN (Virtual Local Area Network) est un réseau local qui regroupe
logiquement et non physiquement un groupe d'appareils. Puisqu'un VLAN est une unité
logique, il est créé et configuré dans le logiciel et non dans le matériel. (Filali,
2020) (Grassa, 2014) (Zertal, 2019)
2) La virtualisation de stockage
Dans une machine virtuelle, les données sont stockées sur un disque dur virtuel. Ce disque
dur est un fichier dans le système de fichiers hôte. La virtualisation du stockage vous permet
d'ajouter un périphérique de stockage supplémentaire sans interrompre le service. Regrouper
des disques durs avec des vitesses, des tailles et des fabricants différents. (Filali,
2020) (Grassa, 2014)
3) La virtualisation de serveurs
En général, la virtualisation des serveurs est un principe qui permet à plusieurs serveurs
virtuels de s'exécuter simultanément sur un seul serveur physique. Cette technologie permet
aux entreprises d'utiliser des serveurs virtuels au lieu de serveurs physiques. En faisant cette
virtualisation dans une même entreprise, le but est de mieux utiliser la capacité de chaque
serveur en agrégeant sa capacité. (Filali, 2020) (Grassa, 2014) (Zertal, 2019)
I.10.Conclusion
La virtualisation est un concept qui existe depuis une très bonne période, cette technologie
est utilisée afin de construire des machines virtuelles avec des performances égales aux
ordinateurs physiques, elle nous permet d’éviter d’utiliser toute une machine réelle, alors on
utilise uniquement ses performances.
Le chapitre suivant présente une généralité sur les hyperviseurs.
14
Chapitre II : Les Hyperviseurs
Machine virtuelle du niveau système : une VM au niveau du système possède son propre
espace d'adressage mémoire, sa propre allocation de processeur et ses propres E/S de
périphérique à l'aide de son propre pilote de périphérique virtuel. (Zertal, 2019)
Il est créé au début de ce processus et détruit à la fin. Son objectif est de fournir un
environnement de programmation indépendant de la plate-forme qui résume les détails du
matériel ou du système d'exploitation sous-jacent et permet aux programmes de s'exécuter
sous la même forme sur n'importe quelle plate-forme. (Zertal, 2019)
Système d’exploitation invité (Guest OS) est le système d'exploitation chargé dans la
machine virtuelle. Il n'y a aucune restriction sur l'exécution du même invité sur plusieurs
machines virtuelles. (Zertal, 2019)
Système d’exploitation hôte (Host OS) : c'est le système principal qui fournit les ressources
informatiques du matériel sous-jacent pour prendre en charge la machine virtuelle invitée.
(Zertal, 2019)
16
Chapitre II : Les Hyperviseurs
Un hyperviseur de type 1 est également connu sous le nom d’hyperviseur bare metal ou
d’hyperviseur natif.
Il s'agit d'un noyau système très léger et optimisé pour gérer l'accès du noyau du système
d'exploitation invité à l'architecture matérielle sous-jacente. Différents types de systèmes
d'exploitation peuvent s'exécuter dans des hyperviseurs de type 1, indépendamment du
système d'exploitation de l'hôte, ils sont donc portables.
Avantage : performance.
17
Chapitre II : Les Hyperviseurs
II.4.1. Équivalence
Un programme exécuté sous VMM doit présenter fondamentalement le même
comportement prédictif que lorsqu'il s'exécute directement sur la plate-forme matérielle
sous-jacente.
L’équivalence est parfois appelée fidélité (fidelity). (Zertal, 2019) (Grassa, 2014)
Le VMM doit avoir un contrôle complet des ressources matérielles réelles virtualisées pour
le système d’exploitation invité à tout moment.
18
Chapitre II : Les Hyperviseurs
Le contrôle de ressources est parfois appelé sureté (safety). (Zertal, 2019) (Grassa, 2014)
II.4.3. Efficacité
Un nombre impressionnant d’instructions machine doit être exécuté sans intervention du
VMM ou en d’autres termes par le matériel lui-même.
L’efficacité est parfois appelée performance. (Zertal, 2019) (Grassa, 2014)
II.5. Théorèmes
Ces théorèmes qui ont été présentés par les travaux des chercheurs de Popek et Goldberg
en 1974 constituent la base de la virtualisation.
Afin de dériver les théorèmes de virtualisation, qui fournissent des conditions suffisantes
(mais non nécessaires) à la virtualisation, les instructions d’un ISA ont été classifiées en 3
groupes différents :
• Instructions privilégiées : Ceux qui sont piégées (trap) si le processeur est en mode
utilisateur et ne sont pas piégées s’il est en mode système (mode superviseur).
Théorème 1
« Pour tout ordinateur de troisième génération classique, un VMM efficace peut être
construit si l’ensemble d’instructions sensibles pour cet ordinateur est un sous-ensemble de
l’ensemble d’instructions privilégiées. » (Zertal, 2019) (Grassa, 2014)
Intuitivement, le théorème indique que pour construire un VMM, il suffit que toutes les
instructions qui pourraient affecter le bon fonctionnement du VMM (instructions sensibles)
sont toujours piégées et contrôlées par le VMM. Cela garantit la propriété de contrôle des
ressources. (Zertal, 2019) (Grassa, 2014)
Les instructions non privilégiées doivent plutôt être exécutées de manière native (c’est-à-
dire, efficacement). La détention de la propriété d’équivalence est définie également.
Ce théorème fournit également une technique simple pour implémenter un VMM, appelé
virtualisation trap-and-emulate, plus récemment appelée virtualisation classique. Puisque
19
Chapitre II : Les Hyperviseurs
toutes les instructions sensibles se comportent normalement, tout ce que le VMM a à faire
est de piéger et d’émuler chacun d’entre eux. (Zertal, 2019) (Grassa, 2014)
Un problème connexe est celui de dériver des conditions suffisantes pour la virtualisation
récursive, c’est-à-dire les conditions dans lesquelles un VMM pouvant s’exécuter sur une
copie de lui-même peut être construit. (Grassa, 2014)
Théorème 2
« Un ordinateur de troisième génération classique est virtualisable récursivement si :
1. Il est virtualisable,
2. Un VMM sans aucune dépendance de synchronisation peut être construit pour cela. »
Certaines architectures, comme la x86 non assistée par matériel, ne remplissent pas ces
conditions, elles ne peuvent donc pas être virtualisées de manière classique.
Mais les architectures peuvent encore être entièrement virtualisées (dans le cas x86 au niveau
CPU) en utilisant différentes techniques comme la traduction binaire, qui remplace les
instructions sensibles qui ne génèrent pas les traps, parfois appelées instructions critiques.
Ce traitement supplémentaire rend toutefois le VMM moins efficace en théorie, mais les traps
matérielles ont un coût de performance non négligeable.
Un système de traduction binaire de mise en cache bien réglé peut atteindre des performances
comparables, par rapport à l’assistance matérielle x86 de première génération, qui ne faisait
que rendre intelligibles les instructions sensibles. (Grassa, 2014)
Théorème 3
« Un VMM hybride peut être construit pour n’importe quelle machine de troisième
génération dans laquelle l’ensemble des instructions sensibles à l’utilisateur est un sous
ensemble de l’ensemble des instructions privilégiées. »
II.6.1 Emulation
L’émulation est importante pour tous les systèmes d’exploitation invités. Le VMM doit
présenter un environnement matériel complet, ou machine virtuelle, pour chaque pile
logicielle, qu’il s’agisse d’un système d’exploitation ou d’une application.
20
Chapitre II : Les Hyperviseurs
II.6.2. Isolation
L’isolation est importante pour avoir un environnement sûr et fiable. Grâce à l’abstraction
matérielle, chaque machine virtuelle doit être suffisamment séparée et indépendante des
opérations et activités des autres machines virtuelles.
Les erreurs qui se produisent dans une machine virtuelle unique ne doivent pas avoir
d’impact sur les autres, ce qui permet d’obtenir des niveaux élevés de sécurité et de
disponibilité. (Grassa, 2014)
II.6.3. Allocation
Le VMM doit allouer méthodiquement les ressources de la plateforme aux machines
virtuelles qu’il gère. Les ressources pour le traitement, la mémoire, les E/S réseau et le
stockage doivent être équilibrées pour optimiser les performances et aligner les niveaux de
service sur les besoins.
Grâce à l’allocation, le VMM satisfait la propriété de contrôle des ressources et, dans une
certaine mesure, la propriété d’efficacité.
II.6.4. Encapsulation
L’encapsulation permet à chaque pile logicielle (système d’exploitation et application) d’être
hautement portable, pouvant être copiée ou déplacée d’une plate-forme exécutant le VMM
à une autre. Dans certains cas, ce niveau ou cette portabilité permet même la migration de
machines virtuelles en cours d’exécution.
L’encapsulation doit inclure des informations d’état afin de maintenir l’intégrité de la
machine virtuelle transférée. (Grassa, 2014)
II.7. Exemples d’hyperviseurs
II.7.1. Vmware ESX
Fondée en 1998, VMware a été la première société à développer une solution de
virtualisation x86 disponible dans le commerce. En 1999, la société a lancé son premier
produit : Workstation 1.0, qui permettait aux développeurs de créer et de travailler avec des
machines virtuelles sur leurs postes de travail Windows ou Linux.
21
Chapitre II : Les Hyperviseurs
En 2001, ESX 1.0 et GSX 1.0 ont été publiés. ESX était un hyperviseur de type 1 et GSX
était un hyperviseur de type 2. Vmware détient jusqu’à aujourd’hui 85% du marché de
virtualisation.1 (Grassa, 2014)
VMware ESX est composé de :
• Vmkernel contient tous les processus nécessaires pour prendre en charge les machines
virtuelles et gérer les ressources matérielles et de disponibilité.
• Les services d’infrastructure, tels que le chronométrage et la journalisation, les intégrations
avec les outils de gestion VMware et d’autres modules tiers autorisés, tels que les pilotes
matériels et les outils de surveillance du matériel, peuvent également être exécutés dans
vmkernel.
1 https://www.vmware.com/
22
Chapitre II : Les Hyperviseurs
Débuté comme projet de recherche à la fin des années 1990 à l’Université de Cambridge,
dans le but de créer une plateforme efficace pour l’informatique distribuée. En 2002, le projet
est devenu un projet open source, permettant à quiconque de contribuer à l’amélioration des
fonctionnalités et des capacités.
Xen Source a été fondé en 2004 pour commercialiser l’hyperviseur Xen. En 2005, Red Hat,
Novell et Sun ont tous ajouté l’hyperviseur Xen à leurs offres de produits.
Deux ans plus tard, Citrix Systems a acquis XenSource pour compléter ses solutions de
livraison d’applications.
Xen est Solution bare-metal et repose directement sur le matériel. Il a un système invité
spécial appelé Domaine 0 (Dom0) qui est démarré lorsque l’hyperviseur est démarré et
dispose de privilèges de gestion différents de ceux des autres systèmes invités.
Dom a un accès direct au matériel, et gère toutes les E/S pour les machines invitées
individuelles. (Grassa, 2014)
II.7.3. Microsoft Hyper-V
Microsoft a débuté dans l’espace de virtualisation avec Virtual Server en 2005, après avoir
acquis la solution de Connectix quelques années plus tôt.
23
Chapitre II : Les Hyperviseurs
24
Chapitre II : Les Hyperviseurs
25
Chapitre III : Virtualisation de Stockage
26
Chapitre III : Virtualisation de Stockage
peuvent être mises à jour dynamiquement sans affecter Performances des applications,
réduisant ainsi les temps d'arrêt. (Dumont, 2016) (Zertal, 2019)
La différence entre Vmotion et High Availability (HA) est que Vmotion est démarré par
l'administrateur, tandis qu’HA est automatiquement démarré par le système lorsque l'hôte
est en panne (doit être activé). (Dumont, 2016) (Zertal, 2019)
Cela permet aux administrateurs d'identifier, de configurer et de gérer le stockage distribué
en tant que ressource intégrée unique, éliminant ainsi le gaspillage de capacité.
Dans un environnement d'entreprise, la virtualisation du stockage est généralement
implémentée par blocs. Divisez ensuite les données en blocs de taille égale et attribuez une
adresse unique à chaque bloc de données. Ce dernier est stocké par un logiciel de
virtualisation (Programme de gestion) dans la table de cartographie centrale. Par conséquent,
la table de mappage contient toutes les métadonnées nécessaires pour localiser
l'emplacement physique du bloc de données. Ce mappage permet à un contrôleur
indépendant du support de stockage physique de gérer les données virtuelles, telles que le
déplacement, la copie, la mise en miroir ou les répliquer. (Dumont, 2016) (Zertal, 2019)
III.4. Les architectures de stockage
III.4.1. Direct Attached Storage (DAS)
Direct Attached Storage ou le stockage à connexion directe fait référence à un système
Directement connecté à un serveur ou à un ordinateur au lieu d'un stockage informatique via
un réseau. La machine virtuelle est stockée localement et n'est accessible que par le serveur
hébergeant la VM. Par exemple, les disques durs des ordinateurs ou des serveurs sont une
forme courante de connexion directe au stockage, tout comme les groupes de disques
externes au serveur, mais ces disques sont directement connectés via des interfaces SCSI
(Small Computer System Interface), SATA (Serial Advanced Technology Attachment) ou
Serial Attached SCSI (SAS) (cf. Figure III.1).
27
Chapitre III : Virtualisation de Stockage
- C'est la solution la plus économique, et elle est très simple et rapide à mettre en place, sans
avoir besoin de compétences ou d'expertise de stockage très avancées. Cette architecture est
possible dans un environnement de production, mais vous devez envisager de placer une
solution de sauvegarde adaptée. Il peut être une solution idéale pour les petites et moyennes
entreprises. (Grassa, 2014)
Inconvénient :
Le niveau de service est bas. Fonctions avancées, telles que VMotion, HA, etc. sont
indisponible. Pas de gestion centralisée des machines virtuelles. (Grassa, 2014)
Un réseau de stockage (SAN) est un réseau dédié permettant de mutualiser les ressources de
stockage.
Dans cette architecture, les machines virtuelles sont approvisionnementées stockées sur la
baie de stockage et sont accessibles par nombreux serveurs. En cas d'erreur de serveur, un
autre serveur connecté au stockage peut rapidement et automatiquement remettre la machine
virtuelle en production sans attendre le redémarrage du serveur défaillant. Cela permet de
limiter les interruptions de service. Cette architecture offre la possibilité de profiter de toutes
les fonctionnalités avancées telles que VMotion. (Zertal, 2019) (Grassa, 2014)
28
Chapitre III : Virtualisation de Stockage
Il diffère des autres systèmes de stockage en ce qu'il accède au disque en mode bloc. Pour
les SAN, les baies de stockage n'apparaissent pas en tant que volumes partagés sur le réseau.
Une fois que vous entrez dans le système de fichiers du serveur en introduisant un niveau
d'abstraction entre le serveur et le système de stockage, vous pouvez en fait y accéder
directement en mode bloc. Augmente la flexibilité de l'administrateur. Chaque serveur
considère l'espace disque accessible de la baie SAN comme son propre disque dur (cf. Figure
III.2).
Le protocole est utilisé pour le transfert de données sur les réseaux SAN. Les plus courants
sont le Fibre Channel et iSCSI . (Grassa, 2014)
Avantage :
-L'un des avantages du SAN est l'évolutivité de l'espace de stockage. L'espace disque n'est
plus limité par la fonctionnalité du serveur et peut être étendu à volonté en ajoutant des
disques ou des matrices de stockage au SAN. Par conséquent, le stockage physique partagé
du serveur optimise la gestion des disques.
-Technologie Fibre Channel Les débits du réseau SAN peuvent atteindre 32 Gbit/s
(anciennement 1 Gbit/s, 2, 4, 8, et 16) par liaison fibre optique, transmis, reçu, et reçu par
les serveurs. Les exigences considérées sont assurées par le système de stockage.
- Un autre avantage des SAN est la redondance du stockage, qui garantit l'accès au système
de stockage en cas de défaillance d'un de ses éléments et permet de répliquer chaque élément
du système (haute disponibilité). De plus, le système d'exploitation du serveur n'a aucune
importance car il peut fonctionner dans des environnements complètement hétérogènes.
Inconvénient :
29
Chapitre III : Virtualisation de Stockage
Cela coûte plus cher que le stockage local et nécessite des compétences en stockage. Cela
nécessite plus de travail préparatoire. (Dumont, 2016) (Zertal, 2019)
1. Le Datastore
Le stockage est considéré comme un magasin de données. Un magasin de données (Data
Store) est une représentation virtuelle d'une ressource de stockage dans laquelle une machine
virtuelle est stockée. En fournissant un modèle unifié pour les serveurs, quel que soit le
stockage, il masque la complexité des différentes technologies et solutions de stockage sur
le marché. 1
1
https://www.m2iformation.fr/formation-virtualisation-des-reseaux-sdn-et-nfv/SEMIRES/
2
https://www.m2iformation.fr/formation-virtualisation-des-reseaux-sdn-et-nfv/SEMIRES/
30
Chapitre III : Virtualisation de Stockage
Avantage :
iSCSI a été largement adopté dans beaucoup de secteurs d’activité car il utilise le réseau
TCP/IP de l’entreprise. Il n’est donc pas nécessaire de monter une architecture de stockage
dédiée avec des switchs FC, des cartes et des câbles spécifiques. Pour cette raison, dans
certains environnements cette solution est idéale car elle est beaucoup plus simple à mettre
en place et ne nécessite pas de compétences de stockage très évoluées. De plus ce protocole
offre de très bonnes performances. (Zertal, 2019) (Grassa, 2014)
Inconvénient :
Les tests ont montré qu'il s'agit du protocole utilisé par la plupart des processeurs (jusqu'à
60 % de temps processeur plus long que les processus FC pour le logiciel iSCI).
III.6.2. Fibre Channel
Fibre Channel est un autre protocole de stockage dans la couche de transport qui sert de base
aux SAN pour envoyer des données. Il s'agit du langage utilisé par les adaptateurs de bus
hôte (HBA), les commutateurs et les contrôleurs dans les baies de stockage des SAN pour
communiquer entre eux. Fibre Channel est un langage de bas niveau. C'est-à-dire que Fibre
Channel est utilisé comme langage entre le matériel réel et non dans les applications qui y
sont exécutées. Il est le plus largement utilisé dans les environnements de production.
(Zertal, 2019) (Grassa, 2014)
Avantage :
Il semble acquis en 2009, le Chanel Fibre Protocol est le protocole le plus efficace en E/S et
semble consommer le moins de ressources CPU sur le serveur hôte par rapport au protocole
iSCSI. (Grassa, 2014)
Inconvénient :
FC est la solution la plus chère car elle nécessite de construire une architecture de stockage
et d'investir dans des cartes HBA, des commutateurs FC et des câbles (généralement des
fibres optiques). Cette solution est plus complexe à mettre en place et nécessite des
compétences de stockage particulières. (Grassa, 2014)
III.7. Conclusion
La virtualisation de stockage implique de rassembler diverses baies de stockage physiques
dans des réseaux afin de les utiliser comme un pool par une ou plusieurs machines.
31
Chapitre IV : Virtualisation des Réseaux
IV.1. Introduction
Un réseau virtuel est une combinaison de ressources matérielles et logicielles dans une unité
administrative. L'objectif de la virtualisation des réseaux est de permettre aux utilisateurs
disposant de systèmes et aux utilisateurs d'échanger des ressources réseau de manière
sécurisée, contrôlée et garantie.
Les technologies utilisées pour la virtualisation de réseau comprennent les VLAN, les
réseaux privés virtuels (VPN), les commutateurs logiques, le routage logique, les pare-feu
logiques et l'équilibrage de charge logique. Certaines de ces techniques se sont avérées très
utiles avec les équipements de réseau physique et de serveur.
La virtualisation des serveurs ajoute une couche abstraite à la couche physique et peut poser
des problèmes lorsqu'un centre de données s'appuie sur des architectures réseau
traditionnelles. Par exemple, les VLAN utilisés par les machines virtuelles doivent être
configurés sur le même port de commutateur de serveur physique sur lequel l'hyperviseur
s'exécute. Cependant, les machines virtuelles sont portables et l'administrateur réseau doit
pouvoir ajouter, supprimer et modifier des ressources et des profils réseau. Un tel processus
est difficile à imaginer avec des adaptateurs réseau ordinaires. (Matoussi, 2021)
IV.2. Principe de Network Plans
Chaque équipement réseau contient les plans suivants :
1. • Plan de contrôle : est le cerveau de l'appareil, le panneau de commande est utilisé
pour décider de la transmission. Cela inclut les mécanismes de transfert de route de
couche 2 et de couche 3, y compris la table de voisinage, la table de topologie
(protocole de routage) et les tables de routage IPv4, IPv6, STP et ARP. Les
informations envoyées au centre de contrôle sont traitées par le processeur.
(Mouffok, 2014)
2. • Plan de transmission : Cette couche est également connue sous le nom de « couche
de transmission » et fait généralement référence à la connexion « tissulaire » qui relie
les différents ports réseau sur un appareil. Le plan de données de chaque appareil est
utilisé pour acheminer le flux de trafic. Les routeurs et les commutateurs utilisent les
informations du panneau de commande pour acheminer le trafic entrant vers
l'interface sortante appropriée. Les informations du plan de contrôle sont
généralement traitées par un processeur dédié, tel qu'un processeur de signal
numérique (DSP), sans avoir besoin d'un processeur principal. (Mouffok, 2014)
32
Chapitre IV : Virtualisation des Réseaux
33
Chapitre IV : Virtualisation des Réseaux
34
Chapitre IV : Virtualisation des Réseaux
35
Chapitre IV : Virtualisation des Réseaux
que le réseau puisse être complètement corrompu ou même piraté par un utilisateur stupide.
Par conséquent, l'envoi d'informations sensibles à l'organisation ou à l'entreprise dans de
telles circonstances est impensable.1
La première solution à accéder à ce besoin est une connexion sécurisée, la connexion de
réseaux externes à l'aide de liens spécialisés. Cependant, la plupart des entreprises ne peuvent
pas connecter les réseaux locaux via une ligne spécialisée, il est parfois nécessaire d'utiliser
Internet comme transfert. Une bonne solution à utiliser la méthode de transfert Internet à
l'aide du protocole d'emballage (Tunneling en anglais), parfois le terme" tunnelisation "),
signifie que les données prises ont été prises à un code pris. En quelque sorte. Parlez ensuite
du réseau standard (RPV ou VPN, connectant la norme de contact réseau standard) pour
définir le réseau et donc Artificial. Ce réseau virtuel est appelé car il s'appelle ces "réseaux
physiques" (réseaux locaux) (locaux Networks))) Connectez les connexions via Internet
impartial, d'autant plus que seuls les ordinateurs réseau locaux sont des côtés et d'autres
"données VPN" et après la visualisation. 2
Le système VPN permet de réaliser la mise en œuvre de l'équipement terminal. D'autre part,
la qualité de service n'est pas autorisée à être comparable à une ligne de location car le réseau
physique est général et donc non garanti.
IV.8.2. Principe général VPN
Le VPN est basé sur un protocole appelé Tunneling Protocol. Ce protocole permet aux
informations commerciales cryptées de circuler d'un bout à l'autre du tunnel. Cela donne aux
utilisateurs l'impression d'être directement connectés au réseau de leur entreprise. Le
principe du tunnel est de créer un chemin virtuel après avoir déterminé l'expéditeur et le
destinataire. La source crypte ensuite les données et les place dans ce chemin virtuel. Pour
un accès facile et peu coûteux aux réseaux d'entreprise internes ou aux réseaux externes,
envisagez d'utiliser des VPN pour simuler un réseau privé tout en utilisant une infrastructure
d'accès partagé telle qu'Internet.
Les données transmises peuvent être traitées avec un autre protocole DIP. Dans ce cas, le
protocole de tunneling encapsule les données en ajoutant un en-tête. Ce tunnel est une série
d'opérations d'emballage, d'expédition et d'emballage.
1 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn
2 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn
36
Chapitre IV : Virtualisation des Réseaux
3 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn
4 https://www.frameip.com/vpn/#22-8211-fonctionnalites-des-vpn
37
Chapitre V : Cloud Computing
Par conséquent, l'objectif principal de ce chapitre est de clarifier l'idée de Cloud Computing
en décrivant ses diverses histoires et définitions, les caractéristiques les plus importantes,
différentes couches, méthodes de mise en œuvre, avantages et inconvénients.
(Chandrasekaran, 2014)
V.2. Historique
Le concept de Cloud Computing n'est pas vraiment nouveau, car John McCarthy est
disponible au début de 1961 avec le "Système informatique en tant qu'outil général".
La cinquième évolution des bâtiments informatiques peut être envisagée selon Microsoft. Ce
développement peut être présenté conformément aux étapes suivantes (voir Figure V.1):
(Grassa, 2014)
1- En 1980, avec des entreprises qui donnent accès aux réseaux de recherche régionaux aux
États-Unis. Seulement en 1989 était exactement le premier fournisseur d'accès Internet (FAI
1.0) via un réseau téléphonique opérationnel. Ils n'autorisent pas l'accès à Internet de
restreindre le téléphone à une connexion de personnes dans lesquelles la société garantit.
38
Chapitre V : Cloud Computing
3. La troisième génération et le FAI 3.0 ne savaient pas que l'apparition des centres de
compartiments présentés, le navigateur Internet et les télécommunications et la
communication avec d'autres réseaux Internet et accès aux serveurs de stockage. Traitement
de protection, matériel et transfert de données. Fournir un accès aux applications métier.
4 - Génération 4, FAI 4.0. (FSA) (également un fournisseur de logiciels en ligne connu) est
une entreprise qui fournit un logiciel dans lequel le service des ressources informatiques à vos
clients via Internet. Il comprend également la création de coussins de questions, y compris des
"logiciels comme" et de ses dérivés (section 5.1). L'utilisation de ce formulaire permet
d'accéder aux applications spécifiques (par exemple, des factures médicales) à l'aide d'un
protocole standard. Protocole HTTP.
5 - Cinquième génération, ISP 5.0,un groupe peut participer à leurs ressources matérielles
(sous l'infrastructure ainsi que la présence de modèles de service en même temps et au coût le
plus bas (logiciel en tant que service). FAI 5.0 propose également un modèle économique,
permettant aux utilisateurs de lancer les outils utilisés uniquement, tels que Google et
Salesforce, les premiers sites publics des services cloud en 1999.
39
Chapitre V : Cloud Computing
concept du nuage, par exemple Vaquaqueo et al., Une comparaison complète de plus de 20
définitions différentes autour du nuage.
- CISCO Systems, leader mondial des technologies de réseau, l'informatique en nuage peut
être expliquée comme suit : "Les ressources et les services de celui-ci de l'infrastructure de
base et de la" demande "sont extraites et "Généré" dans plusieurs environnements répondants,
Cloud Computing, la plate-forme de la société Changement d'ordinateur dans les services de
mesure d'application et de service avec des ressources sans fin. "Le modèle du Cloud
Computing pour créer n'importe où est possible, accédant à l'accès au réseau à un groupe
commun de ressources technologiques de l'information (CE, réseaux, serveurs, unités de
stockage ;
- Selon Lagartner, un cloud est défini comme suit : "Le calcul du nuage est léger, lorsque des
informations gradient et flexible sont fournies en tant que service pour la technologie des
technologies douanières externes." En d'autres termes, le cloud Computing est une sorte
d'ordinateurs qui sont équipés de grandes capacités en tant que service pour plusieurs clients
des technologies Internet.
- Amazon fait référence au cloud Computing tel que la demande de calcul de puissance, de
base de données de stockage, d'applications et autres outils informatiques via la plate-forme
de service en cloud en ligne, donc Walkma consomme l'utilisateur. Utilisons des applications
pour partager des photos sur le téléphone mobile, où nous utilisons des millions de processus
métier critiques, le nuage est un accès rapide à l'ordinateur qui signifie flexible et peu coûteux.
Sur ces quatre définitions, le cloud Computing dépend de la technologie de simulation
standard, qui comprend le partage des ressources informatiques personnalisables du centre de
données. Par exemple, les réseaux, les serveurs, le stockage de la base de données, la puissance
de calcul, les applications, etc. Le cloud consomme également des demandes, des succursales
et de la flexibilité des clients avec certaines factures.
40
Chapitre V : Cloud Computing
41
Chapitre V : Cloud Computing
42
Chapitre V : Cloud Computing
Le cloud public est généralement accessible au public sur Internet. Le grand public peut être
défini par un utilisateur, une entité commerciale, une université, un organisme
gouvernemental ou une combinaison de ceux-ci (voir Figure 3.V).
Amazon, Google, Microsoft et Salesforce proposent un cloud public dans lequel chaque
personne ou entreprise peut héberger ses propres applications, services ou données.
1
http://appengine.google.com
2
https://azure.microsoft.com/fr-fr/
3
https://aws.amazon.com/fr/ec2/
43
Chapitre V : Cloud Computing
L'infrastructure cloud est destinée à l'usage exclusif d'une organisation. Il peut appartenir à
l'organisation, sous son contrôle et sa direction, ou à un tiers, ou à une combinaison de ceux-
ci. Cela peut être fait à l'intérieur ou à l'extérieur de l'organisation. Eucalyptus, OpenNebula
et OpenStack sont des exemples de solutions pour construire un cloud privé. Ainsi, la
principale différence entre un cloud public et un cloud privé est que les ressources de cloud
privé sont uniquement destinées aux clients qui ont été autorisés par l'organisation et ne
peuvent pas être partagées avec d'autres clients de l'extérieur, contrairement à un cloud public,
à Les ressources partagées par l'entreprise peut être partagée avec le grand public. (Zertal,
2019)
44
Chapitre V : Cloud Computing
Ces ressources peuvent être détenues, contrôlées et gérées par une ou plusieurs organisations
de la société civile, un tiers ou une combinaison de ceux-ci. Il peut être placé à l'intérieur ou
à l'extérieur des bâtiments de diverses organisations de la société civile.
4
https://blog.outscale.com/fr/le-cloud-communautaire-nouveau-modele-en-vogue
45
Chapitre V : Cloud Computing
L'utilisateur peut faire un moyen sur n'importe où et à tout moment. Compte tenu du nombre
croissant de dispositifs compatibles, aujourd'hui (par exemple, tablettes, smartphones, etc.),
les informations et les données ne doivent pas être rapides et faciles. Certains de ces avantages
peuvent être, ce qui convient parfaitement à l'utilisation des nuages : (Zertal, 2019)
1. Réduire les coûts administratifs et les investissements initiaux : avec des sociétés de cloud
sur la gestion des ressources que les employés ne se soucient pas de leur guide de programme.
Réduit le risque de travail en nuage.
2. équipé d'une infrastructure dynamique fournie par des économies de coûts et des services
avec moins de coûts de développement et de maintenance ;
3. Prendre soin de la demande, des services flexibles et de développement, d'amélioration et
compatibles avec les prestations de paiement pour la première fois avec le premier paiement
normal.
4. Pour la disponibilité et les performances avec une charge maximale sont automatiquement
obtenues.
5. Quick à rétablir et à améliorer la récupération des installations pour améliorer la flexibilité
des entreprises ;
6. Déterminez une capacité de traitement, stockage, réseau illimité, etc ; de manière flexible ;
7. garantira des mises à jour et une compatibilité des logiciels automatisés pour améliorer la
coordination et améliorer la compatibilité entre différents systèmes d’exploitation ;
8. Fournir une collaboration facile pour les groupes.
9. Entrez un compte respectueux de l'environnement car seul l'espace du serveur utilise
l'application requise.
V.7.2. Les inconvénients du Cloud Computing
Les inconvénients d’un Cloud sont :
2- Les données et les applications sur un Cloud public pourraient ne sont pas en bonne sécurité,
ce qui implique des problèmes de confidentialité et de sécurité ;
3- Nécessite une surveillance continue et des applications stables avec des accords de niveau
de service (SLA). (Zertal, 2019)
V.8. Les principaux acteurs du Cloud Computing
Selon une recherche moderne de Merrill Lynch, il estime que le marché du Cloud coûte 160
milliards de dollars, dont 95 milliards de dollars, pour les applications commerciales, et la
46
Chapitre V : Cloud Computing
productivité des entreprises et 65 milliards de dollars pour la Publicité sur Internet. Une autre
étude de Morgan Stanley a également identifié le nuage comme un grand processus
technologique. Récemment, l'industrie informatique augmente pour fournir une plate-forme
en tant que service (Pâques) et logiciels en tant que service (R) pour les consommateurs et les
entreprises, quel que soit l'emplacement et le temps, ainsi que le nombre de systèmes
d'exploitation cloud existants. Dans cette section, nous avons comparé certains des systèmes
d'exploitation représentatifs du cloud : (Buyya et Al, 2008) (Zertal, 2019)
Amazon Elastic Compute Cloud5 propose un calcul élastique à partir d'un environnement
informatique virtuel que l'utilisateur peut effectuer des applications Linux en fonction du
programme. L'utilisateur peut créer un nouveau périphérique Visual Amazon avec des
applications, des bibliothèques, des données, des paramètres de configuration ou de la
bibliothèque AMIs. Après le démarrage, l'utilisateur doit charger les AMIs créées vers (Simple
Storage Service (S3), avant de démarrer, d'arrêter et de surveiller des AMIs. Amazon EC2
facture à partir de l’activation de l’instance, tandis que la facture Qu’Amazon S3 pour chaque
transfert de données (téléchargement ou transfert). (Zertal, 2019)
Google App Engine6 peut effectuer des applications Web à l'aide de la langue de
programmation Python. En plus de soutenir la bibliothèque Python standard, le joueur de
programme prend également en charge les API (Application Programming Interfaces) pour
les bases de données, les comptes Google, les recherches rotatives, les images et les services
de messagerie. L'application Google propose également un contrôleur de gestion Web, vous
pouvez facilement gérer des applications Web. L'application Google utilise actuellement 500
Mo de stockage et environ 5 millions de pages par mois. (Zertal, 2019)
Microsoft Windows Azure7 est une plate-forme de liste basée sur un système d'exploitation
en nuage qui permet aux développeurs de créer leurs propres plans basés sur un ensemble
standard tel que REST, SOAP où http. Il s’agit d’une offre d’hébergement Web (programmes,
données) et services (flux de travail, stockage, synchronisation de données, boîte de messages,
contacts ...). Avec un ensemble d’API, vous pouvez utiliser cette plate-forme et cet accès et
des services connexes. L'environnement exécutif (« Environnement de vie ») permet d'intégrer
5
https://aws.amazon.com/fr/ec2/
6
http://appengine.google.com
7
https://azure.microsoft.com/fr-fr/
47
Chapitre V : Cloud Computing
de près les systèmes d'exploitation les plus importants (Windows, Mac et Windows Phone).
(Zertal, 2019)
Salesforce.com8 : est un éditeur logiciel basé à San Francisco aux États-Unis. Cette
application distribue la gestion en ligne et organise des applications métier. La société est une
société internationale de ses solutions en CRM, grâce à son outil de gestion de la relation
client historique, pionnier de SaaS. (Zertal, 2019)
Cette technologie courante (virtualisation) ignore les détails physiques du matériel et fournit
une virtualisation des ressources à un niveau d'application très élevé. La virtualisation est le
fondement du Cloud Computing car elle permet de regrouper les ressources informatiques
dans un groupe de serveurs et de les allouer dynamiquement aux applications dans un
environnement virtuel dédié.
V.10. Conclusion
Le cloud computing est une technologie apparue y a quelques années, aujourd’hui cette
technologie est utilisée dans tous les domaines par une grande majorité des entreprises.
Comme y a des solution Cloud payante qui allouent des ressources ainsi que des services, on
trouve des solutions gratuites afin de construire un propre cloud avec des ressources choisies
selon la disponibilité des moyens.
Le chapitre présente l’aspect sécurité dans le cloud computing.
8
https://www.salesforce.com/
48
Chapitre VI : la Sécurité dans le Cloud Computing
VI.1. Introduction
Avec l'augmentation de l'activité en ligne, de plus en plus d'informations sont collectées sous
forme de données chaque jour. Ainsi, le cloud stocke plus de données que jamais (contrairement
aux ordinateurs). Il existe trois types de Clouds : public, privé et hybride. Le cloud public est le
plus répandu. Les ressources (serveurs et dispositifs de stockage tels que le matériel, les
logiciels et leur infrastructure) appartiennent à des tiers et les contrôlent. Un cloud privé
contient des ressources gérées par une organisation mais pouvant être hébergées par des tiers.
Le cloud hybride offre le meilleur des deux Clouds en transférant les données entre les Clouds
publics et privés. Cela permet à l'entreprise de stocker des informations sensibles dans son cloud
1
tandis que d'autres services sont stockés dans le cloud public. (Muheidat et Al, 2021)
(Eghbali, 2021)
Le but du logiciel de sécurité des données de Cloud Computing est de protéger les données
numériques de toute menace à leur sécurité. Les données stockées sur Internet contiennent
souvent des informations sensibles (adresse, détails de paiement, dossiers médicaux, etc.) qui
peuvent être utiles aux cybercriminels. Certaines mesures de sécurité sont utilisées pour faire
face aux cybermenaces et aux vulnérabilités. Vous voulez empêcher la fuite d'informations
personnelles que les gens pourraient exposer. (Hay et al, 2011)
Les données doivent être protégées pendant la transmission. Lors du passage d'un réseau à un
autre (mobile, Wi-Fi, etc.), vous pouvez surmonter le pare-feu et réduire le niveau de sécurité
et de protection des données dans le cloud. Si vous souhaitez acheter un logiciel de sécurité
pour protéger vos données, assurez-vous qu'il couvre les données transférées (ce qu'il fait
généralement). (Kanwal et Al, 2021)
VI.2. Les vulnérabilités dans la sécurité du Cloud
Cependant, le Cloud Computing est un défi majeur pour les fournisseurs de services, leurs
clients et bien sûr pour les attaquants étrangers. Des milliers de giga-octets d'informations
provenant de divers clients sont stockés en un seul endroit et affichés sur Internet. C'est une
cible idéale pour des centaines d'utilisateurs malveillants. Exemple : Logiciels espions de
l'industrie : imaginez à quel point les données clients sont attrayantes pour des milliers
1 https://blog.avast.com/fr/data-security-issues-in-cloud-computing
49
Chapitre VI : la Sécurité dans le Cloud Computing
d'entreprises exposées à Internet. C'est exactement ce qui est arrivé à l'un des fournisseurs de
services cloud en ligne les plus populaires : SalesForce.com. 2
La sécurité est un aspect qui doit être pris en compte lors de la création d'un cloud. L'adoption
de technologies basées sur le cloud est inévitable, mais des précautions doivent être prises pour
garantir que les avantages potentiels de l'adoption ne sont pas compromis par des risques de
sécurité. (El Alloussi et Al, 2012) (Hay et Al, 2011)
La sécurité informatique joue un rôle important dans la mise en place du Cloud Computing. En
fait, selon une étude récente, la sécurité est le plus grand défi auquel sont confrontés les
responsables informatiques qui souhaitent utiliser des solutions et des services hébergés dans
le cloud. (Kanwal et Al, 2021)
Selon le rapport élaboré par l'ENISA à la fin 2009, les menaces au Cloud Computing peuvent
être classées comme suit :
VI.2.1. La perte de maîtrise de gouvernance :
Le client qui commande le service de cloud computing prend en charge une partie de la gestion
de l'infrastructure technologique du fournisseur. Dans ce cas, le Service Level Agreement
(SLA) devrait jouer un rôle important dans la représentation des intérêts du client. (El Alloussi
et Al, 2012) (Hay et Al, 2011)
VI.2.2. Isolement des environnements et des données :
Le partage des ressources est une caractéristique clé du Cloud Computing. Par exemple,
plusieurs clients peuvent partager le même serveur physique. Si la séparation des
environnements n'est pas assez efficace, il peut y avoir un « afflux » entre les clients. Si
plusieurs clients locataires se trouvent dans un environnement partagé, deux types d'attaques
sont possibles, d'une part les "Guest-hopping" et d'autre part directement contre leurs
supérieurs. (El Alloussi et Al, 2012) (Hay et Al, 2011)
VI.2.3. Risques de conformité :
L'externalisation de certains services et processus de base peut rendre la conformité aux lois sur
la protection des données et aux normes réglementaires telles que PCI DSS et ISO 27001
beaucoup plus difficile. Les fournisseurs de services peuvent restreindre l'inspection de leur
infrastructure. (El Alloussi et Al, 2012) (Hay et Al, 2011)
VI.2.4. La publication des interfaces de gestion
2 https://blog.avast.com/fr/data-security-issues-in-cloud-computing
50
Chapitre VI : la Sécurité dans le Cloud Computing
Les interfaces de gestion des services contractuels (par exemple dans le modèle SaaS) sont
fournies directement dans le réseau. Cela augmente le risque par rapport aux systèmes
classiques dans lesquels les interfaces de gestion ne sont accessibles que via des réseaux
internes. (El Alloussi et Al, 2012) (Hay et Al, 2011)
3 https://blog.avast.com/fr/data-security-issues-in-cloud-computing
51
Chapitre VI : la Sécurité dans le Cloud Computing
de passe sans vérifier l'identité de l'utilisateur via un agent de vérification (c. téléphone mobile
du téléphone de l'utilisateur). Le phishing est largement considéré comme une menace, car la
plupart des services cloud utilisent désormais une interface utilisateur simple avec
authentification par nom d'utilisateur et mot de passe. Si un attaquant peut obtenir des licences,
il est très difficile de l'empêcher d'y accéder. (El Alloussi et Al, 2012) 4
VI.3.2. Personnel du fournisseur Cloud avec un accès privilégié :
D'autres risques possibles de la sécurité des données dans le cloud ne conviennent pas aux
données sensibles au client par le personnel du cloud. Clairement approuvé, les services de
sortie, à la fois dans le nuage ou non, ils peuvent supprimer des contrôles classiques avec des
organisations informatiques généralement par le biais de contrôles physiques et logiques. Ce
risque est deux facteurs importants : premiers, riches et secondes, il existe un personnel de
service cloud distinct. L'évaluation de ces risques est déterminée à définir les pratiques de
sécurité des fournisseurs de services et des employés de ce fournisseur avec un accès distinctif
au cloud ne peut pas ouvrir les informations client.
VI.3.3. L’origine des données :
Lorigine, Intergrity et Databon sont un grand soin dans le cloud Computing. Larin ou données
dans de nombreuses régions, y compris des inventions ou une preuve de données précieuses
définies sur la base de l'analyse de l'information indépendante en général. Pour atteindre des
objectifs, certains enregistrements de données développés sont créés dans le cloud public,
lorsque le stockage est effectué, quel type de machines virtuelles et de stockage ont été créés et
où il a été traité. En fait, il peut être important de prouver que certains ensembles de données
ne sont pas transférés dans un cloud. Bien que le suivi des données et l'exportateur puissent être
très importants pour des raisons organisationnelles, cela peut le faire dans le cloud public. Cela
est très dû à la performance physique réelle des ressources physiques, telles que les lecteurs, les
serveurs et les ressources standard que l'utilisateur du cloud peut accéder. Les perspectives
peuvent être des fournisseurs en termes de mécanismes techniques impossibles pour des raisons
de sécurité. (El Alloussi et Al, 2012)
VI.4. La colocation : un risque supplémentaire pour la sécurité dans le Cloud
La compilation sécurisée est l'hébergement d'applications et de données pour plusieurs clients
(entreprises, organisations, entités, etc.) dans le cloud au sein d'une même infrastructure
4 https://blog.avast.com/fr/data-security-issues-in-cloud-computing
53
Chapitre VI : la Sécurité dans le Cloud Computing
physique partagée,
notamment pour la sécurité au
sens de la
confidentialité. Elle sera
paramétrée.
Outre l'application stricte des principes de base de la sécurité des systèmes d'information
partagés (planification soignée des droits d'accès, droits d'administrateur, mots de passe
sécurisés, etc.), certaines technologies ou infrastructures permettent d'évoluer vers cet objectif.
Voici quelques exemples. (El Alloussi et Al, 2012)
54
Chapitre VI : la Sécurité dans le Cloud Computing
connue de lui seul, mais pas le fournisseur de l'information. Solution trouble et encore moins
que n'importe quel autre colocataire. Il s'agit d'une méthode très sécurisée (selon la taille de la
clé) et facultative car vous ne pouvez crypter que ce qui est nécessaire.
55
Chapitre VI : la Sécurité dans le Cloud Computing
56
Chapitre VI : la Sécurité dans le Cloud Computing
Figure VI.3. Mécanisme d’accès dans une plate-forme de confiance (El Alloussi et Al,
2012)
Étant donné qu'une plate-forme de confiance traditionnelle peut effectuer le traitement sur un
hôte sécurisé, le moyen naturel de sécuriser le service IaaS consiste à déployer la plate-forme
sur chaque nœud de l'assurance de service. Cependant, cette approche est insuffisante : un
administrateur système peut déplacer une machine virtuelle d'un client vers un nœud passif sur
la plate-forme, soit lors du démarrage du VMIS (en utilisant la manipulation CM) soit volé
pendant qu'une machine virtuelle est en cours d'exécution (en utilisant Depuis les relais). Par
conséquent, le mécanisme de certification de la plate-forme ne garantit pas que la liste de
critères reçue du client distant correspondra à la configuration réelle de l'hôte sur lequel la
machine virtuelle s'exécute (ou dans le futur). Par conséquent, l'authentification à distance de
TCCP doit garantir que les fonctions de sécurité de la plate-forme restent en arrière-plan.
VI.5.2. Cryptage des données : applications et limites
Une caractéristique de la sécurité des données et du traitement des données dans le cloud est la
distinction entre les données statiques et les données mobiles. En effet, le cryptage des données
statiques est différent de l'utilisation du cryptage pour protéger les données en transit ou en
mouvement. Le principal avantage est que les clés de chiffrement doivent être temporaires,
tandis que les clés des données statiques peuvent être conservées tant que les données stockées
sont chiffrées. Ce formulaire en ligne ne fonctionne pas. La plupart des données stockées sur
Internet sont destinées à être utilisées par les utilisateurs et sont principalement destinées à être
utilisées par d'autres ordinateurs. Le problème est que les humains ne peuvent pas stocker les
clés de chiffrement. Il doit être stocké sur le même ordinateur ou au moins sur le réseau où se
trouvent les données. Beaucoup plus dangereux (Winkler, 2011) (Muheidat et Al, 2021)
Application de cryptage pour les données en mouvement.
Les deux objectifs de la sécurité des données pendant le transport sont d'éviter le
raccourcissement (intégrité) des données et de garantir la confidentialité des données en
mouvement. À l'exception de l'expéditeur et du destinataire, aucune autre partie ne devrait avoir
la possibilité de modifier les données. Le moyen le plus courant de protéger les données en
transit consiste à utiliser le cryptage avec l'authentification pour créer un canal permettant
d'envoyer en toute sécurité des données vers ou depuis le cloud. (Winkler, 2011) (Muheidat
et Al, 2021)
Le cryptage est utilisé pour garantir que la confidentialité des données est maintenue en cas de
violation de l'intégrité de la communication. L'authentification est utilisée pour garantir que les
57
Chapitre VI : la Sécurité dans le Cloud Computing
parties qui s'envoient les données peuvent être dignes de confiance. Le transfert de données via
un logiciel, le transfert manuel de fichiers ou via un navigateur utilisant HTTPS, TLS ou SSL
sont des protocoles sécurisés utilisés pour ce type de problèmes. La clé PKI est utilisée pour
authentifier les transactions et les algorithmes de cryptage pour protéger les données réelles.
Obstacles du cryptage dans le Cloud. (Winkler, 2011)
Par exemple, un cloud SaaS public ne peut naturellement pas permettre aux abonnés de chiffrer
leurs données. Cela peut être dû aux limitations fonctionnelles du service lui-même. Le cryptage
ne peut pas être utilisé avec les réseaux sociaux actuels tels que Facebook, MySpace et LinkedIn
pour garantir la confidentialité des données personnelles. Malheureusement, cela n'affecte
même pas les modèles de revenus. Si Facebook autorise le cryptage SaaS, comment pouvons-
nous cibler les clients avec des publicités plus efficaces et pertinentes pour les activités que
vous proposez ? Lorsque vos données sont cryptées, des aspects du modèle commercial du
fournisseur sont compromis. (El Alloussi et Al, 2012) (Winkler, 2011)
VI..5.3. Le HAIL : une solution RAID pour le Cloud
High Availability and Integrity Layer (HAIL) est un système de chiffrement distribué qui
permet à un groupe de serveurs de prouver au client qu'un fichier stocké est sûr et récupérable.
Il renforce, standardise et simplifie formellement les différentes méthodes de la communauté
cryptographique et des systèmes distribués. Le répertoire HAIL est géré efficacement par les
serveurs et est très compact, généralement des dizaines ou des centaines d'octets, quelle que soit
la taille du fichier. HAIL vérifie à nouveau le partage de fichiers et le réinitialise. Ce programme
est puissant contre un adversaire actif et mobile, c'est-à-dire qu'il peut détruire progressivement
tous les serveurs. Ce paradoxe puissant et formel de la grêle offre une analyse précise et une
sélection de critères. Nous expliquons comment HAIL améliore la sécurité et les performances
des outils existants, tels que Proof of Recovery (PoR), qui est déployé sur des serveurs distincts.
(El Alloussi et Al, 2012)
Comment ça marche ?
58
Chapitre VI : la Sécurité dans le Cloud Computing
partie de F. Celui qui était à l'origine dans F. Par conséquent, cette méthode simple est
vulnérable aux attaques par crawling. L'attaquant prend un emplacement aléatoire i et modifie
59
Chapitre VI : la Sécurité dans le Cloud Computing
la valeur du bloc principal F & sub1; à la valeur de l'E & sub1 endommagé; sur tous les serveurs
endommagés au cours d'une période donnée.
Système de réplication avec PoR :
Pour résister davantage aux attaques, il est recommandé d'utiliser un système Recovery Proof
(PoR) sur chacun des n serveurs. Dans un système PvE à serveur unique, F est codé sous un
code de correction d'erreur (ou code de balayage) que nous appelons code serveur dans HAIL.
Le code serveur renforce chaque instance de F contre les tentatives de blocage.
Code de dispersion avec les PoR :
Pour réduire la charge de stockage pour la duplication avec PoR, il existe un moyen astucieux
de créer une redondance entre les serveurs de fichiers. Au lieu de dupliquer le fichier F sur les
serveurs, il est possible de le distribuer avec du code de débogage (ou code d'effacement). Dans
la grêle, il est connu comme un symbole de distraction. Dans HAIL, chaque bloc d'un fichier
est distribué aux serveurs séparément selon la distribution de n codes.
Figure VI.5. La répartition d’un fichier selon le modèle HAIL et en utilisant le code de
dispersion (El Alloussi et Al, 2012)
60
Chapitre VI : la Sécurité dans le Cloud Computing
VI.6. Conclusion
Le phénomène du cloud computing est inévitable. De nombreux responsables informatiques
sont préoccupés par la gestion de la sécurité requise pour le cloud computing. Cependant, ces
risques sont compensés par les avantages du cloud computing. Les gestionnaires et les
directeurs financiers préfèrent économiser de l'argent, et le responsable de la sécurité doit faire
face à plusieurs risques liés à la sécurité du cloud computing. Le cloud n'est pas une nouvelle
technologie, mais une nouvelle façon de faire les choses dans le domaine des technologies de
l'information. Il est toujours difficile de résister au changement et les professionnels de la
sécurité de l'information doivent prendre en charge le développement du cloud afin que les
utilisateurs puissent profiter des grands avantages du cloud.
61
Conclusion
Conclusion Générale
Le présent polycopié a décrit le détail du module Virtualisation est Cloud Computing destiné
aux étudiants de la cinquième année ingéniorat à l’ESI-SBA, nous avons montré l’essentiel des
deux grandes parties « Virtualisation » et « Cloud Computing ».
Les quatre premiers chapitres été sur la virtualisation et son utilisation via les installations de
différents hyperviseurs ainsi que la virtualisation des machines, de stockage et des réseaux ;
Les deux derniers chapitres décrit l’essentiel du Cloud Computing avec les utilisations, les
modes de déploiement, les types et les domaines d’application ainsi que l’utilisation du Cloud
dans les entreprises et l’étude de la sécurité dans le cloud ;
Nous comptons ajouter à chaque fois de nouvelles connaissances au cours et au TP, tels que les
nouvelles stratégies de sécurité dans le cloud, le passage du Cloud Computing au Fog
Computing (technologie nouvelle) ;
62
Activités
Pratiques
Niveau : 3ème Année Second Cycle
Module : Cloud Computing
Activité Pratique 1
64
Etude de cas : Virtualisation
Objectifs :
Etudier et comparer des outils de virtualisation ;
Créer, configurer et faire communiquer des machines virtuelles ;
- La première partie est purement théorique dans laquelle vous allez étudier un outil de
virtualisation (chaque étudiant choisit un outil/hyperviseur) pour réaliser à la fin une étude
comparative des principaux outils de virtualisation selon certains critères.
- La deuxième est consacrée à une utilisation pratique de ces outils choisis par les étudiants.
Conditions de réalisation :
Durée de réalisation : 3 semaines (partie 1 : 1 semaine ; partie 2 : 2 semaines)
A rendre :
- Après avoir choisis un outil de virtualisation, effectuez une présentation et une étude de cet
outil, en se basant sur des critères tels que : types de virtualisation, OS supporté, sécurité, Noms
des solutions commerciales, Clients majoritaires, Arguments de vente, Exemples de clients,
Part de marché …
Partie 2 (TP) :
Vous devrez réaliser votre TP en choisissant une des études de cas citées ci-dessous :
65
Envoyer régulièrement des requêtes aux autres machines ;
Récupérer les mises à jour de sa base de données depuis un serveur distant accessible via une URL.
Travail demandé
Pour réaliser le travail demandé, vous devrez suivre les étapes suivantes :
1. Installation de l’hyperviseur.
2. Création de de la VM : nous allons créer ici 3 VM :
1 VM Ubuntu;
1 VM Windows 10;
1 VM Android.
3. Configuration réseau
Vous allez essayer différents modes de réseau et pour chaque mode vous récupérer l’adresse IP
des MV
- Expliquez le lien entre l’adresse IP et le mode de réseau choisi ?
- Choisissez le mode réseau le plus adapté à votre étude de cas ?
4. Dupliquer, transporter, importer et exporter une VM.
Dupliquer : Clic droit sur la VM -> manage -> clone -> linked clone (besoin de l’original pour
fonctionner) ou full clone (prend plus de place)
Transporter : Clic droit sur la VM -> manage -> share -> move the virtual machine
Importer : Cela se fait lors de la création d’une nouvelle machine -> choisir un fichier existant
66
II. Etude de cas n°02 (manipulation d’un hyperviseur de type1)
Une petite entreprise de vente en ligne composée de 5 personnes dispose dans son infrastructure
réseau de (cf. Figure 1) :
1 serveur mail ;
1 serveur web pour héberger son site ;
1 NAS pour stocker les fichiers et documents de travail des employés
Figure 1 : L’architecture demandée de TP
Travail demandé
1- Installer ESXi + configuration réseau (cf. Figure 2)
67
Niveau : 3ème Année Second Cycle
Module : Cloud Computing
Activité Pratique 2
68
Etude de cas : Cloud Computing
Objectifs :
Etudier la possibilité de migration vers le Cloud, identification des opportunités
et des bénéfices
Découvrir et essayer pratiquement des Clouds ;
Contexte générale : (Zertal, 2019)
Après avoir étudié théoriquement les principaux concepts liés au Cloud ; nous allons
essayer, à travers cette étude, de découvrir et d’essayer pratiquement des Clouds.
Cette activité comporte deux parties :
- La première partie est purement théorique dans laquelle vous allez réaliser une étude
pour tester la capacité de migrer les services de votre entreprise (la mairie selon notre
étude de cas) vers le Cloud.
- La deuxième est consacrée à une utilisation pratique des services Cloud.
Conditions de réalisation :
Durée de réalisation : 4 semaines partie 1 : 1 semaine ; partie 2 : 3 semaine
Livrables :
1 rapport d’utilisation des services Cloud : il s’agit dans cette activité, d’étudier et de
manipuler réellement des Clouds. On vous propose ci-dessous trois exemples de Cloud
sur le marché. On vous demande de consulter les différents sites indiqués, essayer des
services du cloud :
1. Cas d'amazon (AWS)
2. Cas de Google Cloud
3. Cas de Rackspace1
1
http://www.rackspace.com/cloud/
69
Bibliographie
1. Buyya, R., Yeo, C. S., & Venugopal, S. (2008). Market-oriented cloud computing: Vision, hype,
and reality for delivering it services as computing utilities. In High Performance Computing and
Communications, HPCC'08. 10th IEEE International Conference on, IEEE, 5-13.
4. Dumont, F. (2016). Analyses et préconisations pour les centres de données virtualisés (Doctoral
dissertation, Ecole des Mines de Nantes).
6. El Alloussi, H., Fetjah, L., & Sekkaki, A. (2012). L’état de l’art de la sécurité dans le Cloud
Computing. INTIS 2012, 3.
7. FILLALI F.Z(2019) Cours Virtualisation des Systèmes, Université Abdelhamid Ibn Badis de
Mostaganem, Algérie.
10. Hay, B., Nance, K., & Bishop, M. (2011, January). Storm clouds rising: security challenges
for IaaS cloud computing. In 2011 44th Hawaii International Conference on System Sciences (pp.
1-7). IEEE.
13. Kanwal, I., Shafi, H., Memon, S., & Shah, M. H. (2021). Cloud Computing Security
Challenges: A Review. Cybersecurity, Privacy and Freedom Protection in the Connected World,
459-469.
14. Matoussi, S. (2021). User-Centric Slicing with Functional Splits in 5G Cloud-RAN (Doctoral
dissertation, Sorbonne université).
15. Mell, P. M., & Grance, T. (2011). Sp 800-145. The NIST Definition of Cloud Computing.
16. Mohamed MANAA Cours Virtualisation et Cloud Computing, University of Babylon, IRAK
17. Mohammed, C. M., & Zebaree, S. R. (2021). Sufficient comparison among cloud computing
services: IaaS, PaaS, and SaaS: A review. International Journal of Science and Business, 5(2), 17-
30.
18. Muheidat, F., & Tawalbeh, L. A. (2021). Mobile and cloud computing security. In Machine
Intelligence and Big Data Analytics for Cybersecurity Applications (pp. 461-483). Springer,
Cham.
19. Winkler, V. J. (2011). Securing the Cloud: Cloud computer Security techniques and tactics.
Elsevier.