Rapport Cloud Computing
Rapport Cloud Computing
Rapport Cloud Computing
CLOUD COMPUTING
1
Sommaire
Introduction ..................................................................................................................................... 4
Etat de l'art ...................................................................................................................................... 6
Cloud Computing............................................................................................................................. 8
1. Qu'est-ce que le Cloud Computing ? .................................................................................. 9
2. Les différents services ....................................................................................................... 10
1. Iaas (Infrastructure as a Service).................................................................................. 10
2. Paas (Plateform as a Service) ........................................................................................ 11
3. Saas (Software as a Service) .......................................................................................... 11
4. Avantages et Inconvénients des services ..................................................................... 12
3. Cloud Computing et clusters ............................................................................................. 12
4. Avantages et inconvénients du Cloud Computing .......................................................... 14
1. Avantage : ....................................................................................................................... 14
2. Inconvénients : ............................................................................................................... 14
5. Types de Cloud Computing ............................................................................................... 15
Sécurité et Cloud Computing ....................................................................................................... 16
1. Les Problématiques Sécuritaires Associées au Cloud Computing .................................. 17
2. Analyse des Risques........................................................................................................... 18
1. RISQUE 1 : LA PERTE DE MAÎTRISE ET/OU DE GOUVERNANCE .................................. 19
2. RISQUE 2 : DES DÉFICIENCES AU NIVEAU DES INTERFACES ET DES APIs ................... 19
3. RISQUE 3 : CONFORMITÉ(S) ET MAINTIEN DE LA CONFORMITÉ ................................ 20
4. RISQUE 4 : LOCALISATION DES DONNÉES .................................................................... 20
5. RISQUE 5 : SÉGRÉGATION / ISOLEMENT DES ENVIRONNEMENTS ET DES DONNÉES21
6. RISQUE 6 : PERTE ET DESTRUCTION MAÎTRISÉE DE DONNÉES ................................... 21
7. RISQUE 7 : RÉCUPÉRATION DES DONNÉES .................................................................. 22
8. RISQUE 8 : MALVEILLANCE DANS L'UTILISATION ........................................................ 22
9. RISQUE 9 : USURPATION ............................................................................................... 22
Les Contres Mesures ..................................................................................................................... 23
1. SECURITE PHYSIQUE .......................................................................................................... 24
1. CONTRÔLE ET TRAÇABILITÉ DES ACCÈS........................................................................ 24
2. REDONDANCE MATÉRIELLE........................................................................................... 26
3. RÉSILIENCE ...................................................................................................................... 27
2
2. SECURITE LOGIQUE............................................................................................................ 28
1. SÉCURITÉ DES SERVEURS VIRTUELS.............................................................................. 28
2. LA COLOCATION SÉCURISÉE .......................................................................................... 28
3. SEGMENTATION RÉSEAU............................................................................................... 30
4. SÉCURITÉ DE L’INTERFACE D’ADMINISTRATION.......................................................... 31
Conclusion ..................................................................................................................................... 35
Bibliographie.................................................................................................................................. 36
3
Introduction
4
Au cours des 50 dernières années, l'informatique à vécu des progrès extraordinaires. Le
premier disque magnétique avait une capacité de quelques Méga-octets, de nos jours une
clé USB peut atteindre 256Go soit environ 50 000 fois plus. En ce qui concerne la puissance
de calcul, les microprocesseurs sont passés de 108 khz en 1971 à plus de 3 Ghz de nos jours.
Le Cloud computing est une solution à ce problème, rendue possible grâce à la création
d'internet qui donne la capacité à des machines distantes de communiquer. Cette technique
offre la possibilité d'utiliser une puissance de calcul et une capacité de stockage offerte par
des serveurs distants.
Enfin, notons la position de l'open source dans cette technologie car aujourd'hui, on ne parle
plus de serveur sans virtualisation et donc de XEN et KVM qui ont été choisi par la plupart
des exploitants. Sans compter que la plupart des logiciels développés pour le cloud
computing sont open source.
5
Etat de l'art
6
Retour sur un passé encore récent
Pour mieux comprendre le Cloud Computing, il nous semble pertinent de faire un petit tour
dans le passé. Bien que les acteurs historiques soient issus du monde de l’Internet (Amazon,
Salesforce.com, Google …), l’Informatique en Nuage s’inscrit dans la continuité d’une
rupture initiée dans les années 80. Ainsi, on peut la considérer comme la version moderne
des architectures clients/serveur associée au modèle ASP (Application Service Provider)
visant une externalisation de l’IT à la fin des années 90. En effet, on est toujours dans la
même dynamique de permettre aux clients de se dégager des contraintes techniques de l’IT.
Mais pourquoi parle-t-on de Cloud ? En fait, cette analogie avec un nuage trouve sa source
dans la représentation du réseau téléphonique, puis informatique et enfin d’Internet sous la
forme d’un nuage. Les pionniers du Cloud Computing ont ainsi voulu montrer que leurs
services étaient proposés au travers d’Internet aussi simplement qu’on accède au Web. Cela
peut sembler anodin, voire faire sourire, mais ces précurseurs du Cloud Computing ont ainsi
à légitimer leur position en faisant oublier qu’il s’agit essentiellement d’une migration des
ressources informatiques (serveurs, applications …) vers le réseau. C’est ainsi que les acteurs
qui étaient pourtant le mieux positionnés dans ce domaine n’ont pris que très (trop ?)
tardivement la mesure de ce phénomène. Je veux bien sûr parler des Telcos (Telecom
Companies) qui exploitent depuis des dizaines d’années les infrastructures nécessaires aux
services qu’elles offrent au travers du réseau. Il ne s’agit pas là de révélations
sensationnelles car l’informatique est ainsi faite qu’on a souvent l’impression de vivre un
éternel recommencement. Mais pourquoi tant d’espoir et de bruit autour de ce sujet ?
Un contexte nouveau
Tout d’abord, même si les objectifs et les approches semblent identiques, des progrès
technologiques et des expériences plus ou moins heureuses ont permis de progresser. Dans
le cas qui nous intéresse, ces avancées ont eu lieu au niveau des clients et des serveurs.
Mais c’est surtout du côté serveur que les avancées sont sans doute les plus structurantes
pour le Cloud Computing. Il faudrait un article complet sur ce point, mais les principales
s’articulent autour de SOA (Service Oriented Architecture), du Grid computing et de la
virtualisation pour ce qui est de la technique et de l’ASP en ce qui concerne le modèle
économique. Les aspects techniques permettent de concevoir des applications modulaires,
distribuées, scalables, mutli-tenant dont l’exploitation peut être très largement automatisée.
C’est d’ailleurs ce dernier point qui fait que le modèle ASP est plus viable dans le contexte du
Cloud Computing qu’il ne l’était originalement.
7
Cloud Computing
8
1. Qu'est-ce que le Cloud Computing ?
Le cloud computing se traduit littéralement par "informatique dans les nuages", fai
sant référence aux technologies d'internet qui est souvent représenté schématiquement
par un nuage.
C'est un concept abstrait qui regroupe plusieurs technologies servant à délivrer des services.
Son but est de pousser les entreprises à externaliser les ressources numériques qu
'elles stockent. Ces ressources offrant des capacités de stockage et de calcul, des logiciels
de gestion de messagerie, et d'autres services sont mises à disposition par des sociétés tierc
es et accessibles, grâce à un système d'identification, via un PC et une connexion à Internet.
Historique :
Le cloud computing n'est pas nouveau, il est exploité depuis les années 2000,
les changements qui ont permis l'apparition du cloud computing sont nombreux. Ainsi on
peut cité l'apparition du SaaS (Software as a Service), le produit délivré par le cloud.
Puis il y a le concept de virtualisation qui permet une mutualisation des serveurs et offre
donc une mise en production simplifiée et un meilleur ratio d'utilisation des ressources.
Le cloud computing est donc la juxtaposition de ces technologies pour passer à la vitesse sup
érieure sur l'exploitation de données à travers Internet.
Le concept du Cloud Computing a été mis en œuvre en 2002 par Amazon, un leader due-busi
ness, pour absorber la charge importante des commandes faites sur leur site au moment des
fêtes de Noël.
9
2. Les différents services
Le Cloud computing est composé de trois services, que nous allons exposer.
L'IaaS permet l'accès aux serveurs et à leurs configurations pour les administrateurs de l'entr
eprise.
Les cibles sont les responsables d'infrastructures informatiques. Amazon EC2 est le principal
qui propose ce genre d'infrastructures. Eucalyptus est un exemple d'infrastructure.
10
2. Paas (Plateform as a Service)
Il s'agit des plateformes du nuage, regroupant principalement les serveurs mutualisés et leus
systèmes d'exploitation. En plus de pouvoir délivrer des logiciels en mode SaaS, le PaaS dispo
se d'environnements spécialisés au développement comprenant les langages, les outils et les
modules nécessaires.
L'avantage est que ces environnements sont hébergés par un prestataire basé à l'extérieur d
e l'entreprise ce qui permet de ne disposer d'aucune infrastructure et de personnel de maint
enance et donc de pouvoir se consacrer au développement.
Les cibles sont les développeurs. Google App Engine est le principal acteur proposant
ce genre d'infrastructures.
Concept consistant à proposer un abonnement à un logiciel plutôt que l'achat d'une licence.
On oublie donc le modèle client-serveur et aucune application n'est installée sur l'ordinateur
, elles sont directement utilisables via le navigateur Web.
Deux principales différences avec l’ASP traditionnel sont qu’une simple interface web est
utilisée côté client dans tous les cas (pas de client lourd), et que le SaaS propose une seul
e instance de logiciel qui évolue indépendamment des clients.
Avec l'arrivé du Haut débit, les logiciel en mode SaaS deviennent utilisables sans problèmes.
11
Avantage: plus d'installation, plus de mise à jour (elles sont continues chez
le fournisseur), plus de migration de données etc. Paiement à l'usage. Test de
nouveaux logiciels avec facilité.
Inconvénient: limitation par définition au logiciel proposé. Pas de contrôle sur le
stockage et la sécurisation des données associées au logiciel. Réactivité des
applications Web pas toujours idéale.
Avantage Inconvénient
Saas pas d'installation logiciel limité
plus de licence sécurité
migration dépendance des prestataires
Paas pas d'infrastructure nécessaire limitation des langages
pas d'installation pas de personnalisation dans
environnement hétérogène la configuration des machines
virtuelles
Iaas administration sécurité
personnalisation besoin d'un administrateur
flexibilité d'utilisation système
12
Cette infrastructure, en allant plus dans le détail, est constituée de clusters et de nœuds. Les
clusters servent à gérer l'interface entre les nœuds et l'utilisateur. Ainsi, lorsqu'on
déploie une machine virtuelle sur un cluster, le cluster va créer une instance, qui se matérial
isera par l'utilisation des ressources dans les nœuds. Voici un schéma UML récapitul
atif qui décrit les étapes de déploiement d'une image.
L'utilisateur final disposera enfin d'un accès SSH sur la machine virtuelle. Pour lui, l'utilisation
des ressources sera transparente. Ce sont des administrateurs réseaux qui lui délivreront ses
ressources en fonction de ses besoins.
13
4. Avantages et inconvénients du Cloud Computing
1. Avantage :
Un démarrage rapide:
Le cloud computing permet de tester le business plan
rapidement, à coûts réduits et avec facilité.
L'agilité pour l'entreprise :
Résolution des problèmes de gestion informatique simplement sans avoir à vous en
gager à long terme.
Un développement plus rapide des produits :
Réduisons le temps de recherche pour les développeurs sur le paramétrage des
applications
Pas de dépenses de capital :
Plus besoin des locaux pour élargir vos infrastructures informatiques
2. Inconvénients :
14
5. Types de Cloud Computing
Le concept de Cloud Computing est encore en évolution. On peut toutefois dénombrer trois
types de Cloud Computing :
15
Sécurité et Cloud
Computing
16
1. Les Problématiques Sécuritaires Associées au Cloud
Computing
La « sécurité » est souvent citée comme le frein principal à l’adoption des services Cloud.
Qu’en est-il réellement ? L’accès aux données hébergées dans le Cloud présente en général
un haut niveau de sécurité en raison des mécanismes d’authentification mis en place par les
fournisseurs de service. Ces mécanismes peuvent d’ailleurs être renforcés par les solutions
Corporate clients, de gestion d’identités, qui sont alors placées en amont d’un lien unique
avec le fournisseur de solutions Cloud ; notons cependant que certains fournisseurs
seulement acceptent une telle architecture. Les entreprises clientes doivent toutefois
considérer les points suivants :
Quels types d’informations sont accessibles dans le Cloud ? Qui peut y accéder et
comment sont-elles isolées des éléments non sécurisés ?
Qui dispose de droits pour envoyer et recevoir des données sensibles en dehors du
périmètre de l’entreprise ?
Quels sont les mécanismes de sécurité qui garantissent la confidentialité des données
de l’entreprise au sein du cloud public ?
Comment les données sensibles doivent-elles être envoyées et comment sont-elles
accessibles? En clair ou en cryptant certaines d’entre elles ?
Difficulté d’obtenir que certaines données restent localisées dans un pays désigné, le
Cloud ne connaît pas de frontières ! Il faut alors être prêt à ce que le fournisseur
doive se conformer à des réglementations comme la Directive Européenne de
Protection des Données ou le USA Patriot Act, qui peuvent autoriser les autorités
locales à prendre connaissance des données (cette possibilité est toutefois largement
théorique)
Impossibilité d’assurer la traçabilité des données, par exemple en vue des
certifications SAS 70, Sarbanes Oxley ou autres, qui doivent garantir que nul n’a pu
modifier des données sans qu’il en reste une trace. A noter : certains prestataires de
services Cloud sont d’ores et déjà certifiés SAS 70 (type II).
Ces problèmes peuvent être en partie contournés par des architectures applicatives
adaptées (encryption ou occultation de la propriété des données, et ségrégation des
données contractuellement auditables).
17
2. Analyse des Risques
L'inventaire des menaces et une analyse de risques sont préalables à tout projet
informatique.
18
Lors d'une analyse de risques, et à plus forte raison dans le cadre du Cloud, il faut avoir à
l'esprit trois éléments de contexte :
un risque doit toujours être analysé dans un contexte global. Le risque pouvant être
contrebalancé par d’autres enjeux (économies, gains, délais...).
le niveau de risque peut varier de façon significative selon le type d'architecture de
Cloud pris en considération.
lorsque les risques sont transférés à un prestataire de service de Cloud, la prise en
compte de ces risques par le prestataire, sous forme de service à valeur ajoutée, doit
être intégrée dans le contrat.
Les risques liés à l'utilisation du Cloud Computing doivent être pris en considération
comparativement aux risques encourus par les environnements « traditionnels ».
Le niveau de portabilité actuel des services, des applications et surtout des données est
encore peu probante : il y a peu de garanties sur les outils, les procédures, les formats de
données et les interfaces de services. En cas de réversibilité ou de migration vers un autre
fournisseur de services Cloud, les opérations peuvent être rendues très complexes, longues
et coûteuses. En cas d'impossibilité de pouvoir revenir en arrière, le risque est élevé de se
trouver captif d'une offre particulière.
D'autre part, le manque de clarté des spécifications des interfaces de programmation (APIs),
leur pauvreté et le peu de contrôle à portée des clients sont autant de facteurs de risques
supplémentaires. Les risques de compromissions liés à un dysfonctionnement des interfaces
ou à des altérations de données sont donc à prendre en considération.
Les fournisseurs de services du Cloud proposent un ensemble d’API dont les clients se
servent pour gérer et interagir entre leur SI et les services dans le Cloud.
19
L’approvisionnement, la gestion, l’orchestration et le contrôle sont tous réalisés par le biais
de ces interfaces.
Ceci est vrai pour les Cloud publics et hybrides, car le SI de l’entreprise est à la fois en interne
et dans le Cloud.
De plus, lorsque des investissements initiaux ont été réalisés, lorsque des certifications ont
été acquises ou des seuils de conformité atteints avant le passage sur le Cloud, toute dérive
doit être détectée et une remise en conformité doit être recherchée. L’impossibilité
d’effectuer des contrôles, voire des audits formels (ou leur non réalisation) risque alors de
devenir problématique.
La dématérialisation des données sur des sites physiques de stockage différents peut
conduire à un éclatement des données et une répartition dans différents pays. Un manque
de maîtrise de cette répartition géographique est susceptible de provoquer le non-respect
de contraintes réglementaires liées à la localisation des données sur le territoire d’un Etat.
20
5. RISQUE 5 : SÉGRÉGATION / ISOLEMENT DES
ENVIRONNEMENTS ET DES DONNÉES
Concerne : Cloud externe
La mutualisation des moyens est l'une des caractéristiques fondamentale du Cloud. Mais les
risques afférents sont nombreux, souvent liés aux mécanismes de séparation :
Dans le cas d'un environnement partagé entre plusieurs "clients locataires", deux sortes
d’attaque sont possibles, de type "guest-hopping" et contre les hyperviseurs.
Les pertes de données ne sont pas spécifiquement liées au Cloud, et les deux grandes
familles de risques sont :
S’ajoutent des risques liés à la non suppression de données (celles à ne pas conserver). En
effet, une donnée peut exister logiquement sous les quatre formes suivantes – et bien plus
au niveau physique – : les données en ligne (on-line) ou hors ligne (off-line), et les données
sauvegardées (souvent en plusieurs versions) ou archivées (parfois en plusieurs versions).
Lorsqu’une demande de suppression d’une donnée située dans le Cloud est émise, cela doit
se traduire par une suppression réelle, mais pas nécessairement sous toutes ses formes. En
revanche, lorsqu’une demande de suppression définitive d’une donnée est émise, suite à
une rupture contractuelle par exemple, ou pour des raisons légales, la suppression doit être
effectuée sur toutes les formes que peut prendre cette donnée. Avec la
répartition/dissémination des données il est nécessaire de retrouver toutes les instances de
cette donnée, ce qui peut s’avérer être une tâche complexe dans le cas de multiples
localisations et de la réutilisation des ressources matérielles. Lors d’une suppression sur
21
disque, les données doivent être non seulement dés allouées, mais aussi nettoyées
(écrasement par motif), ceci afin de ne pas révéler ces anciennes données en les rendant
accessibles au suivant à la prochain réallocation de disques au sein du Cloud.
Les architectures de type Cloud sont gérées et exploitées par des personnes disposant de
privilèges élevés et qui sont donc à risque élevé. Des dommages peuvent être causés par ces
spécialistes techniques. Les risques d’accès non-autorisés aux données ou d’utilisation
abusive doivent être pris anticipés. Les dommages causés par des administrateurs système
du Cloud - même s’ils sont rares - s’avèrent plus dévastateurs que dans un environnement
informatique classique. Des procédures et des moyens sont nécessaires tant pour les phases
de prévention et de détection, que pour les phases de protection et de réaction.
9. RISQUE 9 : USURPATION
Concerne : Cloud externe, Cloud interne
22
Les Contres Mesures
23
1. SECURITE PHYSIQUE
Une visite de data center ne suffit plus pour évaluer le niveau d’hébergement garanti par un
fournisseur de Cloud. Ce dernier doit être en mesure d’apporter des garanties sur les
conditions d’hébergement associées à son offre.
ACCÈS PHYSIQUE
L'accès physique d’une seule personne mal intentionnée qui possède une excellente
connaissance de l’implémentation physique du Cloud Computing et de ses points
névralgiques peut suffire à mettre hors service le Cloud, provoquant une rupture dans la
continuité du service et empêchant tout accès externe au Cloud.
isolement complet ou partiel du service dans le cas de coupure des liaisons d’accès
perte des données en production mais aussi des données sauvegardées, sans aucune
possibilité de récupération si celles-ci sont détruites ou détériorées, hors des
données déjà sauvegardées (externalisation et/ou réplications).
risque d'incendie élevé ou d'inondation...
24
Ce flux représente une source potentielle de dysfonctionnements, volontaires ou non.
Il convient de bien délimiter les zones les plus sensibles et de mettre en place des garde-fous
suffisamment efficaces pour retrouver, le cas échéant, l'origine d'un incident. L'accès aux
zones sensibles (serveurs, réseau...) sera interdit et le passage dans les zones intermédiaires
sera limité. Le personnel autorisé devra être informé du caractère sensible des zones dans
lesquelles il est amené à intervenir.
Au-delà des contrôles d’accès et de la sécurité physique, il est tout aussi important de porter
attention à la « conception sécurisée » des data center- centres d’hébergement d’un cloud
privé ou public.
Les bonnes pratiques décrites ci-après constituent autant de points de vigilance pour la mise
en œuvre d’une solution privée, ou pour le choix d’un prestataire de cloud public.
25
Groupe électrogène (autonomie définie par la capacité de la cuve de fioul,
idéalement 72h)
Dimensionnement des sources
Bilan de puissance des machines installées et estimées dans le futur
Distribution
Deux ou plusieurs MT/BT en fonction du nombre d’arrivées d’alimentations
(inductions électriques)
Armoires divisionnaires
Alimentation des baies et machines : deux ou plusieurs départs par baie,
alimentées depuis des armoires distinctes ; alimentation personnalisée pour
des matériels spécifiques (SAN, stockage…)
Tout au long de la durée d’exploitation, l’ensemble de ces systèmes doivent être maintenus
et supervisés, afin d’identifier les alarmes techniques liées à d’éventuels
dysfonctionnements sur ces équipements (surveillance multi-technique).
2. REDONDANCE MATÉRIELLE
L'architecture Cloud Computing doit garantir un accès au service en très haute disponibilité
avec des performances optimales. La seule défaillance d'un équipement matériel peut
engendrer une dégradation ou une coupure du service voire une perte de données. Pour
limiter les risques d’arrêt de service liés à la défaillance d’un équipement, il est nécessaire de
le redonder.
Une réplication des configurations entre les équipements peut faciliter la bonne prise en
charge de la redondance et ainsi augmenter la haute disponibilité du service. La mise en
œuvre d'une redondance différentielle avec une sélection d'équipements de natures
différentes (ex : différents constructeurs, composants d'origines différentes ...), permet de
se protéger d’un problème survenu à un équipement donné.
26
De plus, une redondance des moyens de connexion, par la multiplication des liaisons, des
opérateurs, et des chemins d'accès permet une accessibilité accrue au service en
augmentant la tolérance aux pannes.
3. RÉSILIENCE
Une catastrophe d'origine humaine ou naturelle peut avoir des impacts radicaux sur le
fonctionnement du Cloud Computing et amplifier une panne totale ou partielle du service.
La perte totale de l'infrastructure du Cloud Computing pourrait entrainer une interruption
de service d'une durée indéterminée et une perte de données irrémédiable sans possibilité
de remise en service de l'infrastructure.
Une architecture de secours doit exister, sur un site géographiquement éloigné, avec des
équipements redondants (voir chapitre redondance différentielle) et permettant de réaliser
un PCA (plan de continuité d'activité) sans interruption de service.
27
2. SECURITE LOGIQUE
Dans le cadre d’un modèle IaaS, c’est la virtualisation de serveurs qui fournit cette
abstraction ; l’élément de base, visible ou non, étant une machine virtuelle (VM) sur un
hyperviseur. L’hyperviseur héberge également une VM particulière que nous appellerons de
manière générique la « partition de gestion » (le vocabulaire varie selon le fournisseur). Elle
permet d’administrer l’hyperviseur, de gérer le matériel et les ressources virtualisées.
La seconde famille de bonnes pratiques concerne la notion d’isolation : isolation des flux
réseaux, isolation des VM par niveau de sécurité, délégation de l’administration, affectation
de quotas d’usage des ressources par les VM.
L’infrastructure de type cloud - pour être efficace et rentable - doit automatiser la plupart
des contraintes évoquées précédemment, en plus des processus liées à l’administration, la
supervision et l’allocation automatique de ressources.
2. LA COLOCATION SÉCURISÉE
La colocation sécurisée consiste en l’hébergement sur le Cloud des applications et données
de multiples clients (sociétés, organisations, entités métier…) au sein d’une seule et unique
infrastructure physique, mutualisée, tout en respectant la sécurité, notamment au sens de la
confidentialité.
A juste titre, les sociétés-clientes du Cloud veulent être rassurées sur le fait que leurs
données et traitements seront bien isolés et protégés des autres environnements hébergés
sur l’infrastructure partagée. C’est souvent une obligation légale, par exemple lorsqu’une
société stocke des numéros de cartes bancaires ou des données personnelles, médicales…
28
Comment essayer de satisfaire ces deux impératifs de confidentialité et d’efficacité pour les
infrastructures Cloud, et à tous les niveaux : machines virtuelles, serveurs hôte, réseaux
(Ethernet et SAN) et stockage ?
Le chiffrem ent
Faire appel à des solutions d’étanchéité logiques permet de fournir les ressources à des
groupes différents d’utilisateurs en toute sécurité.
29
Au niveau des VM, on peut utiliser un firewall virtuel sur la machine hôte qui cloisonne les
VMS ; les VLANs permettent de cloisonner le trafic réseau sur Ethernet ; des partitions
virtuelles de stockage apportent l’étanchéité dans la baie de stockage.
Une autre approche consiste à retenir une solution d’infrastructure sur étagère, proposée
par un fournisseur unique ou un ensemble de fournisseurs. On perd en indépendance, car
les différents composants (serveur, réseau, stockage) sont imposés, mais on gagne en
intégration et en sécurisation. En effet, pour simplifier les déploiements de solutions
mutualisées et pour en améliorer la confidentialité, certaines sociétés se sont alliés, ont
coréalisé et co-validé des solutions « tout-en-un » et/ou des guides de conception complets
qu’ils mettent à disposition des fournisseurs de solution Cloud.
3. SEGMENTATION RÉSEAU
La segmentation réseau des machines virtuelles (VM) doit parer aux risques classiques de
tout serveur, mais également à des risques liés à la colocation dans le cas d’un Cloud public.
Il faut appliquer les mêmes règles dans la virtualisation que dans une architecture physique :
30
Administrer ses VM via un réseau dédié pour superviser, mettre à jour et ainsi ne pas passer
par le réseau frontal/public.
La politique de sécurité mise en place dans l’architecture Cloud doit être appliquée sur la
durée avec un contrôle permanent et une mise en œuvre de bonnes pratiques au quotidien :
procédures d’exploitation, tests d’intrusion …
Chiffrer les sauvegardes : alors qu’il est naturel de penser à l’implémentation des protocoles
de production chiffrés comme le passage en HTTPS pour les sites Web ou Intranet, il est
moins commun de penser à la protection des tâches de plus bas niveau Conflits et
usurpation d’adressage : les machines étant virtuelles, il est plus facile dans ce contexte de
générer des conflits d’adressage. Ainsi, une attention particulière doit être portée à la liste
des personnes ayant un droit d’administration sur le Cloud. Cloner une instance déjà
présente sans prendre en compte ces considérations peut être une source de problème
Le développement des applications doit être soumis à des audits de codes réguliers, et à
l’implémentation de règles et contrôles des données.
Authentification
Si l'accès authentifié n'est pas clairement identifié, alors il sera impossible de pouvoir tracer
la connexion et la modification des données ou du service qui en résulte. L'authentification
doit apporter une preuve de l'identité si on veut pouvoir enquêter sur d'éventuels accès
suspects.
31
Une vulnérabilité provenant d’erreur, de faille « humaine » ou «d’hameçonnage» dans le
processus d'authentification peut aussi être exploitée. Celle-ci pourrait donner des accès de
type «administrateur » à l'architecture Cloud Computing et entraîner une corruption de la
plate-forme.
Pour maitriser la sécurité de bout en bout, il faut sécuriser les éléments constituant la plate-
forme Cloud, mais également l’accès à cette plate-forme.
Dans le cas d’un accès aux services hébergés sur le cloud par internet, le serveur (VM) est
nativement vulnérable puisqu’il est directement exposé sur la Toile. Deux solutions de
sécurisation peuvent être appliquées :
inclure des briques de sécurité type Firewall (ouvre les ports applicatifs nécessaire),
IPS ou IDS (détection et protection d’intrusion) entre l’infrastructure cloud et le client
mais aussi éventuellement au sein de l’architecture serveur, entre serveurs front
office et serveurs back office. (cette dernière solution n’est possible que dans les
environnements de cloud privés dans lesquels les serveurs n’ont pas d’adresse IP
publique)
sécuriser chaque serveur virtuel par un firewall applicatif installé sur l’OS (ou IPS, IDS
applicatif). Cela suppose néanmoins une gestion lourde des règles d’accès avec
internet et entre serveurs virtuels.
Ce type d’accès n’est envisageable que pour des serveurs hébergeant des données publiques
(serveur FTP public, site web …) peu sensibles pour l’entreprise.
Si le serveur héberge des services privés de l’entreprise (ERP , CRM, intranet …) et constitue
alors une extension du SI, le serveur ne doit pas être visible d’internet et des solutions de
connexions dédiées doivent impérativement être envisagées, telles que :
Connexion VPN privée : l’accès aux serveurs du cloud se fait via des liaisons dédiées
(fibre, xDSL, multi-opérateur … ) entre le cloud et l’utilisateur
32
Connexion VPN internet : l’accès aux serveurs du cloud se fait via une connexion
sécurisée par des mécanismes de chiffrement et d’identification (IPSEC ou TLS)
montée entre le cloud et l’utilisateur, via le transit internet.
Accessibilité
Quel que soit le type de connexion au cloud, dédiée ou via Internet, il faut s’assurer que le
service hébergé reste joignable par les utilisateurs. L’accessibilité aux serveurs doit être
ajustée au niveau de disponibilité de ceux-ci. Tout comme la redondance offerte par les
offres cloud, la joignabilité de ceux-ci doit donc être renforcée par une redondance à tous
niveaux. En effet, une infrastructure cloud ultra-disponible ne sert à rien si l’accès ne l’est
pas :
Les briques de sécurité (firewall de constructeurs différents par exemple …) doivent être
également redondées. Il en va de même pour les briques de publication de services
(répartition de charge, …).
Les administrateurs du Cloud Computing doivent être certains de se connecter sur les bons
serveurs pour exécuter leurs taches d'administration, sans quoi des informations sur la
sécurité de l'infrastructure pourraient être récupérées et utilisées à mauvais escient. Pour se
prémunir de ces risques, il convient de :
33
Appliquer une politique de contrôle stricte des utilisateurs (ex : contrôle de
l'installation de logiciel tiers sur la plate-forme, surveillance des accès, journalisation
des actions ...).
La performance des VM peut être altérée si les équipements saturent à cause d’un
utilisateur, impactant aussi sur les autres utilisateurs. Pour éviter cela, il faut adapter
le dimensionnent nominal des environnements sur le Cloud. Si l’application peut dès
le début supporter une croissance horizontale, c'est-à-dire une multiplication des
machines qui traitent le flux (comme de la répartition de charge par exemple) alors il
est préférable d’avoir dès le début deux petites machines plutôt qu’une grosse. Ces
instances ne seront probablement jamais sur un même socle physique. Ainsi, si un pic
de charge local dans le cloud vient affecter une instance, la seconde sera la plupart
du temps épargnée. Par ailleurs cette topologie permettra - en cas de forte charge -
de multiplier les instances en fonction du besoin. Les prestataires proposent ici des
solutions de publication des applications clefs en main.
Une forte charge non prévue sur un des services hébergés sur l'infrastructure Cloud
Computing risque d’entrainer une dégradation des performances de ce service. Pour éviter
cela, on met en œuvre un mécanisme de flexibilité des ressources permettant d'adapter la
plate-forme aux besoins en un minimum de temps et d'efforts.
La gestion des mises à jour de sécurité est nécessaire pour certains types de certification. Ne
pas les installer équivaudrait plutôt à perdre une telle certification. Par exemple, les
solutions d’IaaS privées incluent obligatoirement une gestion automatisée des mises à jour.
De même, un des avantages des offres de SaaS publics est justement de déléguer au
fournisseur la gestion des mises à jour, et celui-ci doit s’engager sur cette gestion et les
délais d’application des mises à jour.
Toute modification du socle technique sur lequel repose la solution Cloud doit être
communiquée aux clients, pas forcément en temps réel mais avec une périodicité bien
établie. En cas de modification majeure d’un élément logiciel (remplacement d’une brique
par une autre), l’homologation doit être repassée. En revanche, en cas de montée de version
ou d’installation de patch, sur une solution logicielle donnée, cette opération ne nous
semble pas obligatoire.
Rappelons quand même qu’une homologation est généralement accordée pour une durée
bien précise. Le client vérifiera que son fournisseur reste bien à jour de ses homologations.
34
Conclusion
Ce projet nous a aider à travailler en groupe, à nous aider les uns
les autres face à de nombreuses difficultés.
35
Bibliographie
http://fr.wikipedia.org/wiki/Informatique_dans_les_nuages
http://en.wikipedia.org/wiki/Cloud_computing
Livre:
Cloud Computing Une feuille de route pour la France acteur :
afdel
Le "Cloud Computing" acteur : Gautier MOULARD Pôle
Recherche & Développement groupe HSBI – 2008/2009
http://www.salesforce.com/fr/cloudcomputin/
Vidéo :
http://www.youtube.com/watch?v=HF1hryPHj_Y
http://www.youtube.com/watch?v=XKKwSbPYUgI&feature=
relmfu
36