2017 AlexandrePieyre PDF
2017 AlexandrePieyre PDF
2017 AlexandrePieyre PDF
ALEXANDRE PIEYRE
(GÉNIE INFORMATIQUE)
AOÛT 2017
Ce mémoire intitulé :
DÉDICACE
REMERCIEMENTS
Mes remerciements vont à mes partenaires scolaires et industriels dans cette aventure de création
d’une méthodologie d’évaluation des risques relatifs à la sécurité de l’information.
J’aimerais donc remercier l’École Polytechnique de Montréal pour la structure dont j’ai pu
bénéficier durant la période de recherche. Plus spécifiquement le Professeur José Fernandez, mon
directeur de recherche. Fort de son expérience et de sa vision propre à la sécurité de l’information,
il a su m’orienter et me supporter durant l’effort de recherche.
Par la suite, mes remerciements vont à mon partenaire industriel, l’entreprise OKIOK. La structure
interne et les équipes m’ont permis d’orienter la méthodologie sur un modèle d’affaires concret et
sur une réalité des marchés actuels en sécurité de l’information. Je tiens donc à remercier Cindy
Walsh, Claude Vigeant, François Daigle et mon équipe de test d’intrusion.
Finalement, je remercie grandement mes parents, ma sœur et ma femme pour leur appui constant
et indispensable.
v
RÉSUMÉ
La sécurité de l’information est un domaine prenant un essor considérable suite aux attaques
informatiques fréquentes ayant fait l’objet d’une couverture médiatique internationale, depuis les
dix dernières années. Nous sommes donc à l’ère où la protection de l’information numérique
représente un enjeu capital pour les entreprises et les gouvernements. Ces acteurs sont de plus en
plus sujets à la numérisation de leur processus d’affaires et des documents associés. Les attaques
informatiques auxquelles ils sont exposés ont donc des impacts d’autant plus importants selon la
criticité de l’information.
L’évaluation des risques informatiques est la discipline permettant d’analyser les actifs
informationnels détenus par ces acteurs. Elle a pour but d’en évaluer les différents aspects de
sécurité afin d’identifier les risques, les évaluer et formuler des recommandations pour les réduire.
Pour cela, les méthodologies actuelles d’évaluation des risques se basent principalement sur des
scénarios de menaces pouvant potentiellement se matérialiser sur l’environnement informatique
d’une entreprise. Ces approches prennent pour acquis que la démarche d’analyse de risque repose
principalement sur l’énumération de scénarios de menaces qui sont génériques et peu adaptés à
l’environnement de l’entreprise concernée.
Nous sommes donc arrivés à nous questionner sur plusieurs aspects liés à la validité des processus
d’analyse et d’évaluation des risques informatiques. Cette notion de risque informatique n’a cessé
de croître durant les vingt dernières années, et ce principalement dû à la médiatisation des incidents
de sécurité ainsi qu’à la prise de conscience concernant l’importance des actifs informationnels
numériques, tant du côté corporatif qu’individuel. L’évaluation des risques informatiques est
désormais une des préoccupations principales des entreprises soucieuses de la protection liée à
leurs actifs informationnels.
d’évaluation des risques se basant sur des intrants concrets, empiriques et non basés sur des
scénarios hypothétiques.
L’approche proposée dans ce mémoire reflète l’idée fondatrice d’une nouvelle méthodologie. Elle
permet de se démarquer de l’approche par scénarios, en s’efforçant de prendre en compte les
différentes sources d’informations identifiées comme tangibles pour permettre la création d’un
processus de gestion des risques fiable et adapté à la réalité des entreprises. Pour cela, nous avons
tiré profit de l’expérience en test d’intrusion de l’entreprise partenaire pour consolider cet intrant
comme source principale dans le processus de gestion de risques.
Les tests d’intrusion sont des attaques informatisées, en temps réels, permettant de simuler
l’approche qu’un attaquant utiliserait pour extraire de l’information privée sur un réseau
informatique ou un système d’information, et en exploitant certaines de leurs vulnérabilités
logiques. Les tests d’intrusion peuvent avoir une portée très réduite en se concentrant sur un actif
ou un type d’information en particulier. Ils peuvent aussi cibler des portions de site entières.
Évaluer le risque par ce biais nous permet d’obtenir deux groupes opérationnels distincts produisant
plusieurs livrables pour arriver aux fins escomptées. Le groupe en charge des tests d’intrusion
s’oriente vers l’obtention d’informations précises sur la surface d’attaque des actifs informationnels
de l’entreprise. Le groupe d’évaluation des risques récolte les informations sur les vecteurs
d’attaque et le contexte de l’entreprise pour alimenter le modèle d’analyse, d’évaluation et de
traitement des risques.
Il s’attèle par la suite à la création d’indicateurs sur la posture de risque et de traitement concernant
les contrôles les plus adaptés pour éliminer les risques identifiés.
Les résultats obtenus permettent de considérer avec sérieux l’aspect méthodologique avancé à
travers cette recherche. L’effet de priorisation du traitement des risques adapté au contexte de
l’environnement numérique de l’entreprise a été positivement relevé et constaté par plusieurs
clients lors de projets pilotes et lors de l’implantation en milieu réel. De plus la méthodologie
permet de baser les contrôles de traitement sur des normes internationales en sécurité de
l’information, favorisant l’ajout d’une couche de guidage et d’adaptation au contexte de
l’entreprise.
vii
Les efforts effectués dans la création de la méthodologie d’évaluation des risques informatiques
permettent de répondre à un besoin particulier, celui de prioriser le traitement des risques et de
réduire les imprécisions liées aux perceptions des risques, par le biais de scénarios de menace tirés
des attaques perpétrées lors des tests d’intrusion. Ces imprécisions renforcent une divergence de
perception entre les équipes opérationnelles et les gestionnaires responsables de la sécurité de
l’information. La tendance réactive actuelle propre à l’administration des systèmes d’information
implique un procédé d’évaluation des risques peu mature, peu maintenu et souvent très lourd et
coûteux à mettre en place.
Les résultats obtenus lors de cette recherche permettent de prouver qu’un processus allégé et axé
sur des résultats techniques de vulnérabilité informatique permettrait de complémenter l’approche
par scénario et ainsi de mieux adresser les risques actuels en matière de sécurité informatique.
viii
ABSTRACT
The security of digital information is an area of extreme importance nowadays, since the various
attacks on the Internet have been the focus of international media coverage for the last ten years.
We therefore are in an era where the protection of information is a key issue for businesses and
governments. These actors are increasingly subject to the digitization of their business processes
and related documents. The attacks they are exposed to can have severe impacts depending on the
criticality of the proprietary information concerned.
Computer risk assessment is the discipline used to analyze the information assets held by these
enterprises and governments. Its purpose is to evaluate the various aspects of security in order to
identify risks, evaluate them, and implement recommendations to reduce them. To this end, current
risk assessment methodologies are based mainly on threat scenarios that could potentially
materialize on a company's digital environment. These approaches enforce that the risk analysis
approach relies mainly on the enumeration of threat scenarios that are generic and not adapted to
the digital environment of the company concerned.
Thus, we have come to question several aspects related to the validity of the processes of analysis
and evaluation of computer risks. This notion of computer risk has kept increasing for the last
twenty years, mainly due to media coverage of security incidents and to raising awareness about
the importance of securing digital assets. IT security risk assessment is now one of the main
concerns of companies concerned about the protection of their information assets.
The constant interconnection of information networks dramatically increases the attack surface,
which can lead to a flaw in term of availability, integrity or confidentiality of targeted information.
The findings achieved through the research effort do not allow presently the identification of a
methodology of risk evaluation based on concrete, empirical inputs and not based on hypothetical
scenarios, as used in existing solutions and methodologies in information security risk
management.
ix
The approach proposed in this dissertation reflects the founding idea of a new methodology. This
methodology differentiate itself, from the scenario approach, by endeavoring to take into account
the different sources of information identified as tangible to enable the creation of a reliable risk
management process adapted to the reality of companies. In order to obtain this type of information
on the security posture, we have taken advantage of the intrusion test experience of a partner
company. This is aimed at consolidating intrusion testing input as a main source in the risk
management process.
Intrusion tests are computerized attacks, in real time, to simulate the approach an attacker would
use to extract private information on a computer network or an information system, exploiting
some of their logical vulnerabilities. Intrusion testing can be very limited in scope by focusing on
a specific asset or type of information. They can also target portions of entire sites.
Evaluating the risk in this way drives us to distinct two operational groups producing several
deliverables to arrive at the intended purpose. The group in charge of the intrusion tests is oriented
towards obtaining precise information on the attack surface of the company’s information assets.
The risk assessment group collects information on the vectors of attack and the context of the
company to feed the model of analysis, evaluation and treatment of risks.
The methodology then proceeds to the creation of indicators on the posture of risk and treatment
regarding the most appropriate controls to eliminate the identified risks.
The results obtained make it possible to consider with seriousness the methodological aspect
advanced through this research. The effect of prioritizing the risk treatment adapted to the context
of the company's digital environment was positively noted and observed by several clients during
pilot projects and during the implementation in real environment. Moreover, the methodology
makes it possible to base the processing controls on international standards in information security,
favoring the addition of a layer of guidance and adaptation to the context of the company.
Efforts to create the IT Risk Assessment methodology address a particular need to prioritize risk
treatment and reduce inaccuracies in risk perceptions. Those errors and disparities in security vision
and mitigation prioritization currently persist between the operational teams and the managers
responsible for information security, in an enterprise.
x
The current reactive trend in the markets and concrete observations implies a system of risk
assessment that is not very mature, little maintained and often very cumbersome and costly to put
in place.
The results obtained from this research demonstrate that a streamlined process - focused on
technical results of systems and computers vulnerability - would better address current security risk
evaluation.
xi
REMERCIEMENTS ..................................................................................................................... IV
RÉSUMÉ........................................................................................................................................ V
Tableau 6-7 Échelle de risque résiduel (A/CR) – NIST SP800-30 .............................................. 100
Figure 6-1 Distribution des vulnérabilités en fonction des activités du PTI .................................. 86
Figure 6-6 Diagramme circulaire exposant la répartition des vulnérabilités par activités ........... 109
Figure 6-7 Répartition des risques A/CA & A/CR ...................................................................... 111
Figure 6-8 Comparaison entre les distributions avant et après traitement ................................... 112
Figure 6-9 Comparaison entre les distributions d’impact avant et après traitement .................... 113
La liste des sigles et abréviations présente, dans l’ordre alphabétique, les sigles et abréviations
utilisés dans le mémoire ainsi que leur signification :
Un ACI peut être caractérisé comme n’importe quel support logique ou physique stockant de
l’information numérique de manière temporaire ou définitive.
Prenant en compte la posture de sécurité et les scores de risque avec les contrôles actuels et avant
traitement.
Prenant en compte la posture de sécurité et les scores de risque avec les contrôles recommandés et
après traitement.
AO Apprentissage Organisationnel
ATT Attaquant
Base de classification des vulnérabilités selon le Domaine de Test et le mandat client. Chaque
BDOV devrait être unique puisqu’elle reflète une analyse d’un EC spécifique.
Permet de répertorier et regrouper les entreprises et leurs actifs informationnels selon leur secteur
d’activité. Finance, Assurance, Développement logiciel, etc.
Le domaine qualifie un ensemble des tests et vulnérabilités propres à un environnement client. Par
exemple, lors de la mise à l’épreuve d’une plateforme applicative, le domaine de test sera « Tests
d’application web » . Plusieurs domaines peuvent être nécessaires à la bonne conduite du processus
de test sur un environnement client. On parlera donc de plusieurs domaines de test dans le mandat
concerné.
Zone logique de séparation entre un réseau interne d’entreprise et internet (réseau externe).
EC Environnement Client
Portée du mandat de test d’intrusion. La portée représente l’environnement numérique sur lequel
seront effectués les tests d’intrusions.
EV Ensemble de vulnérabilités
FA Facteur d’affaires
Sert à estimer précisément, grâce aux tests d’intrusion, les groupes d’attaquants susceptibles de
mener des attaques avec succès.
FV Facteur de Vulnérabilité
Sert à déterminer les caractéristiques et la quantification des aspects propres aux failles
Ensemble des indicateurs de posture de sécurité. Composé de la partie statistique des BDOV et de
l’indice de maturité.
Désigne le gestionnaire de projet, compte du coté client. Ce dernier interagit de manière régulière
avec l’IPM et les METI.
Désigne le gestionnaire de projet, compte du côté client. Ce dernier interagit de manière régulière
avec l’IPM et les METI.
Les indicateurs de détection et de réponse permettent aux membres de l’équipe de tests d’intrusion
de mieux apprécier les réactions du client lors des tests. Il est à noter que cette étape est facultative,
car certains clients ne seront pas enclins à divulguer leur capacité de réponse si cela n’a pas été
précisé dans les règles d’engagement.
IA Intelligence artificielle
L’indice d’opportunité concerne les vecteurs d’accès et les ressources nécessaires pour exploiter la
vulnérabilité.
Processus méthodologique d’évaluation des risques basé sur les résultats des tests d’intrusion.
Les membres sont spécialisés dans l’évaluation de sécurité des environnements en procédant selon
un processus d’intrusion progressif permettant de reporter les vulnérabilités à chaque étape. Ils sont
responsables de l’application du processus d’identification des risques.
Les membres sont spécialisés dans l’évaluation des risques technologiques et dans la gouvernance
propre à la sécurité des systèmes d’information. Ils sont responsables de l’application du processus
d’appréciation et d’évaluation des risques.
Organisation complète des tests d’intrusion, de la définition propre à la portée jusqu’à la remise du
rapport.
Structure de dossier contenant toutes les BDOV relatives à une catégorie d’affaires.
Responsable de la coordination de l’EGR et du suivi des mandats clients propres à l’évaluation des
risques. Il est lui-même un MEGR.
Responsable de la coordination de l’ETI et du suivi des mandats clients concernant les tests
d’intrusion. Il est lui-même un METI.
RT Référence de Test
Les sous-domaines sont les différentes parties propres à un domaine. Par exemple dans le TD
propre aux applications web, un sous-domaine de test pourrait être ‘Information Gathering’. Ils
regroupent les unités de test.
Ensemble de règles de gouvernance permettant d’assurer une gestion cyclique de la sécurité des
actifs informationnels.
UT Unité de Test
Les unités de test désignent les tests pouvant être effectués sur l’infrastructure de données cible. Ils
sont détaillés dans un onglet personnalisé donnant des informations sur la nature du test, ses
impacts, sa portée, et les moyens permettant de conduire ces tests.
Pour l’étape d’identification des menaces, les approches traditionnelles d’identification par
scénario sont désormais désuètes lorsqu’appliquées en sécurité informatique. Une approche par
scénario aura tendance à se baser sur un scénario d’attaque bien défini avec un acteur abstrait
exploitant une vulnérabilité. Le scénario est ensuite évalué en termes qualitatifs ou quantitatifs, et
sur l’impact potentiel envers l’entreprise en cas de réalisation. Une fois le scénario évalué,
sélectionné, et priorisé, il est possible d’y appliquer des contre-mesures et contrôles venant réduire
le risque relatif au scénario, en éliminant la vulnérabilité.
Cependant, cette approche est limitative, car un environnement numérique d’entreprise comporte
des centaines de scénarios d’attaques potentielles affectant la sécurité. Cela demande donc une
gestion très volumineuse et peu souple des différents scénarios, et rend leur évaluation arbitraire.
2
Il est donc extrêmement fastidieux de prioriser les bonnes mesures de protection lorsque des
centaines de scénarios sont disponibles.
Aucune méthodologie d’évaluation des risques ne permet actuellement d’établir des modèles précis
sur les menaces et les potentialités relatives. Suite à de multiples questionnements sur l’évaluation
des risques, et aux limitations relatives en entreprises constatées lors de différentes missions de
consultation dans l’industrie, nous nous sommes intéressés à la création d’une méthodologie
d’évaluation des risques informatiques qui puisse adresser certaines de ces lacunes. Les limitations
relatives au manque de précision des indicateurs sur l’exposition des actifs informationnels et les
menaces relatives nous permettent de poser les bases d’un questionnement sur la pertinence de
considérer une approche quantitative novatrice.
Cette approche serait une partie intégrante d’une évaluation dynamique des risques, basée sur
certains intrants dont :
- Les observations des sondes et capteurs de surveillance déployés sur les réseaux
informatiques
La qualité des paramètres (intrants) alimentant une telle méthodologie doit être d’une fiabilité
accrue pour fournir des résultats plus précis.
3
Un test d’intrusion n’est autre qu’un ensemble de techniques et de tests permettant de reproduire
les attaques informatiques perpétuées par des intervenants internes et/ou externes et atteignant la
confidentialité, l’intégrité et la disponibilité d’un système d’information. Les tests d’intrusion sont
classés majoritairement en 4 domaines : tests d’intrusion réseau, applicatifs, mobiles et physiques
[3]. Ils permettent d’avoir une meilleure appréciation sur les mesures de sécurité déjà en place et
donnent des indicateurs précieux sur de futures étapes à conduire pour s’orienter vers une sécurité
optimale. Le but des tests consiste généralement à simuler l’attaque d’un acteur mal intentionné
voulant accéder à certaines données.
Étant donné que la conduite de tests d’intrusions nécessite un niveau de connaissance et une
expertise technique élevés, ces tests sont souvent réalisés par des firmes spécialisées pour le compte
des entreprises qui opèrent les systèmes informatiques visés. Ainsi, ces firmes produisent pour
leurs clients de longs rapports recensant les vulnérabilités propres à leur environnement (EC).
L’environnement client (EC) désigne ici l’environnement numérique sur lequel les tests ont été
conduits. Cependant, l’utilité de ces rapports pour le client est limitée, étant donné qu’il n’est pas
possible de déterminer un niveau de risque uniquement basé sur les vulnérabilités trouvées et
détaillées dans ces rapports.
De ce fait, nous voulons déterminer s’il est possible d’établir un processus clair permettant de
mettre à profit les résultats de tests d’intrusion à travers une méthodologie d’évaluation des risques,
afin de maximiser leur utilité dans la prise de décision dans la gestion de la sécurité informatique.
Ce processus permettra de se positionner en qu’intrant complémentaire aux approches
traditionnelles de gestion des risques, car il sera basé sur des intrants tangibles et non sur une base
hypothétique. Les tests d’intrusion forcent l’obtention de ces indicateurs tangibles, relatifs à
l’exposition et à la criticité des données.
Un des buts précis de cette recherche scientifique sera donc la création d’un modèle d’évaluation
des risques, alimenté par les résultats de tests d’intrusion dans le but de renouveler un modèle
décisionnel désuet se basant sur des scénarios de menaces génériques peu adaptés au contexte
d’entreprise, étant donné leur grande diversité.
4
« Élaboration et évaluation d’une méthodologie d’évaluation des risques se basant sur les résultats
de tests d’intrusions, qui puisse offrir une meilleure prise de décision en gestion de la sécurité
informatique par rapport aux méthodes existantes »
Cet objectif découle partiellement du constat fait à travers l’étude des tendances et des guides
méthodologiques actuellement disponibles dans le domaine de l’évaluation des risques appliquée
à la sécurité informatique. Nous considérons que les processus et livrables découlant de cette
recherche sont des éléments complémentaires permettant de contribuer à une base porteuse et
innovante résultant en l’élaboration de la méthodologie que nous proposons. Cette méthodologie
que nous avons baptisée Intrusion Testing for Risk Evaluation and Management (ITREM)
représente donc le fruit de plusieurs questionnements sur le domaine de l’architecture de services
de sécurité adaptés aux besoins d’entreprises, en matière de quantification, priorisation et
traitement des risques.
Afin de pouvoir vérifier et mesurer le progrès dans l’accomplissement de cet objectif de recherche,
nous poursuivrons le cheminement de ce chapitre en discutant plus en détail le problème que nous
avons posé afin d’identifier et établir le bien-fondé des sous-objectifs et questions de recherches
que nous nous sommes fixés dans ce travail.
Dans la pratique actuelle, les tests d’intrusion sont largement utilisés par les grandes et moyennes
entreprises pour pouvoir répertorier automatiquement les vulnérabilités existantes sur leurs
systèmes d’information. Comme le souligne très bien Jones [4], dans son chapitre accordé aux
outils d’audit et de détection de vulnérabilités, la tendance actuelle sur le marché de la détection
des vulnérabilités est tellement avancée que plusieurs manufacturiers logiciels se démarquent en
multipliant les suites automatisées de découverte de failles. Nessus®, Nexpose, Core Impact [5]
sont tous des exemples de logiciels spécialisés permettant d’obtenir une multitude de failles
provenant du code, de la configuration, des mises à jour, etc. Le marché est très mature en ce qui a
trait à ce genre d’identification. De plus, il existe déjà des bases de données de vulnérabilités qui
5
sont utilisées pour recenser une partie des attaques disponibles dans notre éventail de tests
d’intrusion. En conséquence, on s’attend à ce qu’un test d’intrusion puisse fournir plus de valeur
ajoutée qu’une simple identification logique des services vulnérables.
À l’origine l’objectif voulu des tests d’intrusion « classiques » était d’évaluer le risque
informatique de façon globale en se mettant volontairement dans un scénario d’attaque, dans lequel
une équipe de test joue le rôle de l’attaquant et essaie de pénétrer le périmètre de sécurité des
systèmes afin d’accomplir un objectif malveillant simulé. Le succès et la facilité relative de cette
équipe de test d’intrusion à accomplir ses objectifs constituent donc un indicateur indirect de la
potentialité que ces attaques soient réalisées par un authentique adversaire malveillant. Or cet
indicateur est très imparfait, car il est difficile pour l’équipe de parcourir tous les scénarios
d’attaque possibles, d’une part, et de l’autre il ne tient pas compte de l’importance relative des
biens informatiques pouvant avoir été ciblés par l’équipe de test d’intrusion. En d’autres mots, les
résultats de test d’intrusion dans ce contexte ne servent que d’indicateur de potentialité, et non pas
d’impact. En fait, ce qui semble évident et intuitif est que l’impact d’un scénario dépendra de
l’importance du bien informatique ciblé par cette attaque, ou en d’autres mots du contexte dans
lequel ce scénario d’attaque aura lieu, qu’il soit un contexte réseau (p.ex. segment de réseau
contenant les serveurs), un contexte applicatif (p.ex. les applications reliées aux transactions
financières) ou un contexte usager (p.ex. les données stratégiques compétitives reliées à la haute
direction). Cette réflexion nous amène donc à une première question de recherche :
1. Comment prendre en compte les informations de contexte des systèmes informatiques dans
le processus d’évaluation des risques
De plus, malgré que les vulnérabilités identifiées par les outils de tests d’intrusion mentionnés ci-
haut correspondent en grande majorité à celles décrites dans des bases de données de vulnérabilités,
les extrants des outils utilisés génèrent des rapports de format variable et contenant des
informations techniques qui sont difficilement interprétables et difficilement utilisables
directement dans l’évaluation des risques. Ainsi, afin de pouvoir utiliser les résultats des tests
d’intrusion dans un processus intégré d’évaluation des risques, nous devons adresser la question
suivante :
6
Nous postulons donc que si les informations sur les vulnérabilités identifiées dans les résultats des
tests d’intrusion peuvent être transformées de façon à les rendre plus facilement interprétables et
peuvent aussi être reliées à un contexte informatique où elles sont présentes, il est alors
théoriquement possible pour l’analyste de sécurité d’évaluer le risque (autant en potentialité qu’en
impact) relié à chacun des scénarios pouvant exploiter ces vulnérabilités. Cependant, le nombre
de vulnérabilités identifiées lors de tests d’intrusion typiques reste très élevé, se situant souvent
dans les centaines voire des milliers d’incidences rapportées. Ceci rend donc peu viable notre
proposition à moins que nous puissions automatiser partiellement ou totalement le processus de
classification des vulnérabilités en termes de risque, un processus imbriqué lui-même dans le
processus d’évaluation et gestion des risques informatiques, qui lui tient compte entre autres de la
réduction du risque introduit par les contrôles de sécurité. C’est à cet effet que nous proposons
d’utiliser des approches d’apprentissage machine afin d’assister l’analyste de sécurité dans cette
tâche, ce qui adresse la question de recherche suivante :
Finalement, toute proposition théorique de méthodologie d’évaluation de risques telle que celle
que nous proposons doit pouvoir démontrer sa réelle valeur dans la pratique professionnelle. Le
succès d’une telle méthodologie et sa viabilité dans la pratique professionnelle dépendent d’une
part de sa capacité à aider à prendre des décisions judicieuses - et donc dans sa précision à prédire
les risques informatiques -, et de l’autre de sa viabilité en termes de difficulté d’utilisation, coût,
etc. À cette fin, nous avons eu la chance d’utiliser la méthodologie proposée en pratique
professionnelle avec un client réel ce qui nous a permis d’adresser partiellement la question de
recherche suivante :
4. Est-ce que l’utilisation des résultats de tests d’intrusion permettrait dans un contexte
d’utilisation réelle d’augmenter de façon viable le niveau de précision lors de l’étape
d’identification, d’analyse, d’évaluation et de décision sur les risques spécifiques à la
7
Deux acteurs principaux m’ont permis de réaliser ce projet à terme, à travers une bourse de
recherche MITACS. Mon partenaire académique, l’École Polytechnique de Montréal et plus
particulièrement mon directeur de recherche, José Fernandez, m’a orienté de façon à dresser les
processus majeurs permettant d’articuler la méthodologie.
De ce fait, les résultats, sous forme standardisée, peuvent être appréciés plus précisément à travers
un processus venant apporter une dimension extrêmement importante en gestion des risques. En
effet, l’appréciation du contexte d’affaires permet de cerner quels sont les actifs les plus à risque
pour l’entreprise. Cette étape vient aussi considérer les aspects de maturité ainsi que les normes,
standards, et obligations légales de l’entreprise concernant la gestion de la sécurité informatique.
Le processus d’appréciation du contexte (PAC) permet de reprendre et conditionner les
8
Dans cette optique, le processus d’évaluation des risques permet, à travers un moteur d’analyse
quantitative, d’obtenir des scores de risque précis qui permettront une classification en fonction
des actifs impactés et des types de vulnérabilités répertoriées. Ce processus permet de dresser la
liste des risques évalués, leurs impacts sur l’entreprise, leurs potentialités et leur appartenance
relative aux ensembles de vulnérabilités (EV). Cette classification par ensembles de vulnérabilités
est conçue de façon à favoriser, lors de l’étape d’évaluation de contre-mesures, une réduction
applicable à plusieurs risques de la même catégorie. Cela conforte la dimension d’efficacité des
traitements appliqués et donc de réduction des risques résiduels.
Ce processus d’évaluation des risques constitue le cœur de cette méthodologie. Il doit donc être
optimisé pour répondre à une forme de continuité à travers un processus cyclique. L’idée à travers
cette continuité est d’établir un processus global et cyclique venant évaluer non seulement les
risques de l’environnement ciblé, mais aussi les progrès propres aux traitements des risques évalués
et priorisés.
Pour répondre à cette continuité du processus méthodologique, nous avons créé un processus
s’apparentant plus à de l’apprentissage organisationnel et qui permet d’assurer un suivi régulier des
progrès en gestion des risques, découlant du processus d’évaluation des risques.
distinctes autour desquelles graviteront les différentes parties de la revue de littérature. Parmi ces
phases, nous comptons :
À cet effet, le chapitre 3 décrit les grandes lignes de la méthodologie ainsi que l’ontologie de
l’évaluation des risques propre à ITREM. Nous y découvrirons comment s’imbriquent les 4
processus majeurs sur lesquels est basé l’effort méthodologique.
Le chapitre 4, quant à lui, sera dédié à apporter tout le détail nécessaire pour comprendre les calculs
de risque. Il fera mention des mesures, indices et facteurs permettant l’évaluation quantitative des
risques relatifs aux vulnérabilités identifiées lors de l’exercice de tests d’intrusion.
Plus particulièrement, nous dédions un chapitre séparé à nos efforts d’automatisation du processus
de classification de vulnérabilités dans le contexte d’ITREM, afin d’alléger la tâche des membres
de l’équipe de gestion des risques. Au chapitre 5 nous décrivons les techniques d’intelligence
artificielle en apprentissage machine que nous avons utilisées pour construire un système de
classification qui permet de classifier automatiquement les vulnérabilités découvertes lors de tests
d’intrusion en termes de priorité de traitement. Nous décrivons les résultats obtenus lors de
l’évaluation de ce mécanisme de classification automatisé.
Finalement, le chapitre 7 nous permettra de revenir sur les questions de recherches, les différentes
parties du mémoire, ainsi que sur les travaux futurs.
11
Les organisations ont besoin d’outils pratiques, précis, et permettant d’obtenir des indicateurs
concrets et une analyse comparative interne de la sécurité informatique avec des standards
reconnus, afin de planifier efficacement leur stratégie et le plan directeur de la sécurité
informationnelle. La tendance actuelle en matière de gestion de la sécurité de l’information sur la
scène mondiale consiste en des entreprises de plus en plus conscientes du danger lié à l’exposition
de leurs actifs. Cependant, les budgets alloués aux départements des technologies de l’information,
et plus précisément au domaine de la sécurité et de la protection des actifs informationnels, restent
peu adaptés et reflètent malheureusement une politique d’investissement austère. Les deux facettes
principales de cette réalité sont simples [6] :
Il est donc commun de constater un manque d’engouement chez certains hauts dirigeants en ce qui
a trait à la sécurité de leurs actifs numériques. Ce manque d’information concernant les orientations
et le positionnement en matière de sécurité pousse les dirigeants et responsables des systèmes
12
d’information à établir des stratégies réactives positionnant l’entreprise en porte à faux avec ses
objectifs de sécurité.
De plus, les membres de la direction se soucient peu de savoir réellement quels sont les moyens
techniques permettant d’assurer la protection de l’entreprise et de ses services informatisés. Ce qui
importe le plus, c’est d’être capable de saisir et d’évaluer précisément quels sont les coûts associés
aux impacts sur les actifs informationnels. De façon à déterminer le budget nécessaire aux
opérations optimales en termes de sécurité, il est nécessaire de répondre à ces questions :
Ces questionnements paraissent essentiels pour tout acteur familier avec les principes de sécurité
de l’information. Cependant, les réponses demandent un effort d’analyse et de recherche requérant
un appui constant de la haute direction ainsi qu’une communication bilatérale entre plusieurs
départements clés de l’entreprise. La raison principale réside dans le fait que le Responsable de la
Sécurité des Systèmes d’Information (RSSI) se doit d’agir à différents niveaux pour assurer la
sécurité des actifs tout en respectant l’alignement avec les objectifs d’affaire et les contraintes
légales. Le RSSI a pour but, dans ses tâches principales, d’assurer un suivi constant ainsi qu’une
continuité entre les décisions de la haute direction et les répercutions qu’elles impliquent au niveau
de la priorisation sur les contrôles techniques. Les contrôles, propres à des référentiels comme le
NIST SP800-53 (émis par le National Institute of Science and Technology) sont des prérequis et
constituent des lignes directrices permettant d’orienter le gestionnaire de la sécurité de façon à
couvrir tous les domaines propres à la sécurisation des actifs. À cet effet, les contrôles permettent
au RSSI de mettre en place des contre-mesures technologiques, procédurales, et légales pour
diminuer les impacts relatifs aux données dont il est le garant en matière de sécurité.
13
Cependant, le guide se concentre à haut niveau sur le processus complet de test de pénétration ainsi
que sur les différents types de vulnérabilités que l’on peut identifier en fonction des systèmes
d’exploitation. Quand bien même ce dernier reste complet, peu de détails techniques sont
actuellement disponibles.
Ce dernier est un excellent livre pour comprendre les principes d’exploitation à travers une
plateforme facilitant le processus global d’intrusion dans un système d’information, mais les outils
ne sont pas forcément à jour avec les dernières trouvailles en termes de vulnérabilités. Cependant,
Metasploit reste un pilier fondateur de la sécurité offensive. Il permet, en plus d’obtenir une
interface intuitive pour la gestion des attaques, d’implanter une plateforme de création
personnalisée d’exploits. Cela propulse l’outil et l’utilisateur dans une dimension plus flexible et
certainement plus soutenue techniquement comparativement à celle des plateformes complètement
automatisées se limitant à un sous-ensemble d’exploits connus et bien souvent obsolètes de par les
contre-mesures et mise à jour de sécurité implémentées.
14
Un des aspects manquants dans Metasploit est la recherche automatisée de vulnérabilités sur les
plateformes applicatives de type web.
De plus, une lacune significative en ce qui concerne les tests de pénétration web est à souligner. A
cet effet, un des efforts de recherche a été axé vers l’assimilation des connaissances disponibles à
travers l’OWASP [9], la base de référence en termes d’attaques et de détection de vulnérabilités
web.
OWASP est une communauté ouverte dédiée aux organisations, permettant de concevoir,
développer, acquérir, exploiter et maintenir des applications sécuritaires et durables. Tous les
outils, documents, et forums de l’OWASP sont gratuits et ouverts à toute personne intéressée à
l’amélioration de la sécurité applicative et web.
En dépit du fait que les deux bases citées ci-dessus sont d’excellentes ressources pouvant être
utilisées dans le but d’élaborer un éventail de services et prestations de tests d’intrusion, il est
nécessaire de les coupler avec un répertoire de CVE. Les CVE (Common Vulnerability Exposure),
cataloguent chaque vulnérabilité publiée publiquement, et sont toutes regroupées par manufacturier
d’équipement et de logiciel dans la NVD (National Vulnerability Database).
La majorité des entreprises offrant des services de tests d’intrusion basent leurs approche sur les
trois ressources énoncées plus haut. La différentiation dans la qualité et la fiabilité de la prestation
de service se traduit donc sur l’expertise des ressources effectuant les tests d’intrusion ainsi que sur
la forme du processus utilisé, de la recherche des vulnérabilités jusqu’à la présentation de ces
dernières.
De ce fait, ce raisonnement basé sur la formation et la capacité des ressources à trouver les
vulnérabilités pourrait potentiellement introduire une marge d’erreur quant à la détection
systématique de vulnérabilité pouvant mener à une atteinte aux principes premiers de la sécurité de
l’information.
Ce constat est aussi une cause de la pratique des tests de sécurité, prenant en compte le fait que
cette dernière soit une niche dans le secteur de la sécurité de l’information. Les acteurs principaux
15
ainsi que les firmes de sécurité, concurrentes, sont soucieux de garder leur mode opérationnel ainsi
que leurs outils et techniques spécifiques.
Pour réduire de manière résiduelle cette marge d’erreur, il est nécessaire de construire une
plateforme permettant de servir de référence technique aux différentes ressources. Aucune
référence actuelle, autre que celles citées plus haut et se concentrant sur un domaine particulier,
n’a encore de base conséquente renfermant plusieurs centaines de techniques d’exploitation.
Aucune méthodologie ne propose actuellement des intrants techniques tels que les résultats de tests
d’intrusion, pour servir de base à une approche d’évaluation des risques. Les seuls points de
similarité potentiellement disponibles dans les solutions professionnelles sont les indicateurs de
risques développés par certains fournisseurs d’antivirus. Ces derniers proposent des outils de
génération de posture de sécurité en fonction du nombre de menaces détectées sur l’ensemble des
agents déployés.
Grâce aux listes détaillées d’attaques, les membres de l’équipe de tests d’intrusion ont la possibilité
de jouir d’une base de connaissance servant de point d’appui et de liste de vérification lors des
différents projets de tests d’intrusion.
Pour corroborer les points énoncés précédemment, les intrants de la méthodologie s’inscrivent dans
une démarche démarcative et novatrice en ce qui a trait aux sources d’information permettant de
déterminer et d’identifier les risques dans l’environnement d’un système d’information.
Ainsi, pour un service d’authentification sur une plateforme web par exemple, l’importance du
critère de confidentialité est supérieure à celui de l’intégrité. Dans certains départements de
l’entreprise et de l’environnement client, il y a des risques qu’il faut à tout prix écarter, dans
d’autres, il existe des actifs qu’il faut à tout prix protéger. C’est lors de la phase d’évaluation que
ces valeurs contextuelles sont définies. Elles doivent être appliquées tout au long de l’analyse des
risques.
De ce fait, plusieurs bases de questions ainsi que certains entretiens favorisent une mise en contexte
précise sur la portée de l’environnement, la nature des affaires de l’entreprise et les points
stratégiques de stockage et transit de l’information sensible et/ou critique.
D’après certains consortiums d’entreprises comme le réseau des grandes entreprises françaises
(CIGREF [11]), des mesures et initiatives pour élever leurs niveaux globaux de sécurité
informatique sont nécessaires ; l’information est aujourd’hui considérée comme un actif essentiel
et stratégique. Depuis 20 ans, la numérisation des documents et actifs de l’entreprise s’est axée vers
un idéal d’optimisation de temps et de productivité. Cependant, il s’agit d’un actif intangible, dont
la valeur est difficilement mesurable et dont la prise de conscience devrait être amplifiée chez les
dirigeants. La majorité des entreprises et des chefs de département font donc face à un paradoxe
dans lequel l’accès et la protection de l’information sont jugés stratégiques alors que les budgets et
les contrôles sont souvent jugés non prioritaires, par manque de retour sur investissement.
voire de chiffrer ponctuellement les documents électroniques ou les transmissions, était suffisant.
Cependant cette période est révolue depuis très longtemps. Les entreprises ont désormais besoin
d’indicateurs précis ainsi que d’une classification dynamique et systématique des actifs
informationnels propres à l’entreprise.
Les États-Unis d’Amérique se dotent dès 2002 d’un cadre régulateur visant à mettre en place une
norme de standardisation des informations classées et utilisées dans les agences fédérales. FISMA
(Federal Information Security Management Act), permet désormais à l’ensemble des agences
américaines de jouir d’une base de référence en ce qui a trait à la classification essentielle de leurs
actifs informationnels. L’acte American de 2002, Homeland Security Act [12], permet donc de
diriger la tendance mondiale sur la prise de conscience d’une classification effective des actifs
informationnels. De plus, cela remet en question et pousse à redéfinir plusieurs processus dans
l’entreprise, à savoir :
Organisationnel
Ressources humaines
Processus de sécurité
Technologie
Un des points saillants de l’analyse du contexte client repose aussi dans la détermination d’un score
de maturité en ce qui a trait aux politiques, directives et pratiques de sécurité au sein de l’entreprise.
18
Les deux échelles exposées précédemment sont donc utilisées pour quantifier la maturité de
l’architecture de sécurité d’une entreprise ou d’un environnement. Elles sont parmi les plus
efficaces en termes d’évaluation de maturité.
Cependant, les approches par scénarios fournissent un bon cheminement méthodologique en ce qui
concerne l’attribution des scores de risques ainsi que les recommandations relatives aux risques
évalués. Ce sont donc d’excellents intrants, comme le précise R.Oppliger [15], pour reprendre
certaines recommandations et les appliquer à certains risques communs en termes de contrôle de
traitement. Il est donc nécessaire d’accroître leur efficacité en tenant compte des attaques perpétrées
lors du test d’intrusion. Cela permet de sélectionner et de mitiger en priorité des scénarios ayant
des vulnérabilités vérifiées de manière tangible.
Certains manufacturiers logiciels se sont aussi, dans les 5 dernières années, spécialisés dans la
création de solutions permettant la gestion unifiée des évènements de sécurité. Ces évènements de
sécurité sont des journaux générés par des systèmes ou applications comme :
19
- Solution Antivirale
Ces intrants sont ensuite agrégés sur un serveur central permettant d’effectuer des recherches dans
la masse de journaux récoltés, tout en créant des indicateurs et diagrammes personnalisés pour
représenter la posture de sécurité des actifs informationnels. Cependant, ces solutions logicielles
comme Alien Vault USM [16] ne permettent pas d’exploiter les vulnérabilités identifiées, ni même
de fournir des recommandations spécifiques en fonction des menaces détectées. Elles pourront
cependant détecter toute tentative d’intrusion à travers les bases de données, combinées à de la
corrélation heuristique.
Il est aussi important de considérer que la majorité des méthodologies par scénarios ont été créées
entre les années 1980 et 2000 et que la plupart sont discontinuées, car les contextes et modèles
technologiques se sont diversifiés et complexifiés.
D’autres suites logicielles utilisent des concepts très intéressants d’utilisation de détection de
vulnérabilités pour venir alimenter un modèle de gestion de la conformité en rapport avec certaines
normes de sécurité. Cela permet de savoir quels sont les correctifs et patchs de sécurité manquants
ainsi que les systèmes impactés. De plus, pour conserver les contrôles à jour, la solution citée crée
des rapports et indicateurs de façon à assurer une traçabilité des évolutions.
Suite à la découverte des différents processus et méthodes exposés à travers la revue de littérature,
nous sommes confortés dans notre idée initiale qu’est le développement d’un outil sous forme
méthodologique pouvant servir à évaluer et prioriser les risques identifiés par les résultats de tests
d’intrusion.
20
Pour répondre à la problématique actuelle sur les méthodes et outils disponibles en évaluation des
risques appliqués aux résultats de tests d’intrusion, un processus méthodologique a donc été créé.
ITREM (Intrusion Testing for Risk Evaluation and Management) est le processus méthodologique
que nous avons créé. Ce dernier permet de reprendre les résultats de tests d’intrusion, de façon à
les transformer en indicateurs de risque afin de prioriser les traitements.
Nous allons donc introduire à haut niveau chacune des parties du processus global pour démontrer
les liens de causalité entre ces dernières. Par la suite, le corps du chapitre 3 sera scindé en quatre
de façon à détailler chacune des parties.
- L’importance des actifs et leur priorisation dans le cadre du test d’intrusion et selon les
spécificités du contexte d’affaires
- Le cadre normatif choisi par le client pour la gestion des risques ou pour les orientations
de sécurité
- La pondération en découlant
22
Comme mentionné précédemment dans le chapitre 2, l’évaluation des risques en entreprise se base
souvent sur des plateformes méthodologiques prenant en comptes des processus relativement
dépassés. Cela est justifié par le fait que les environnements actuels sont de plus en plus exposés
aux menaces externes et que les solutions de gestion des risques ne répondent plus adéquatement
aux attentes en matière de sécurisation de l’information. Le temps de l’énumération des scénarios,
en sécurité informatique, est dépassé.
À l’inverse des processus basés sur l’évaluation de scénarios souvent hypothétiques, nous basons
notre processus d’évaluation sur des vulnérabilités provenant d’une liste ayant été créée par le biais
du rapport de test d’intrusions et appliquée au contexte d’affaires grâce au PAC. Pour évaluer les
vulnérabilités et les risques en découlant, nous allons utiliser une combinaison d’approches
quantitatives et qualitatives. Ces dernières permettront d’attribuer un score de risque (analyse
quantitative) et un positionnement sur une matrice. De plus, un registre des risques sera créé pour
effectuer un suivi constant sur le traitement des risques et leur évolution. De façon à pouvoir obtenir
un cycle méthodologique complet et évolutif, il est nécessaire de transférer les résultats de
l’évaluation à un processus permettant de les représenter graphiquement. Non seulement cela
permet d’effectuer un suivi sur les mesures et contrôles renforcés, mais aussi de cibler des parties
de l’EC plus faibles et nécessitant une approche d’évaluation similaire.
Il vise particulièrement la vérification postérieure des traitements de risque effectués lors de l’étape
précédente (PER). De plus, le PAMC permet de fournir plusieurs indicateurs de sécurité basés sur
le processus d’évaluation.
Cela permet de constater, à travers le temps, les efforts et moyens ayant été déployés pour
contrecarrer et mitiger les risques identifiés. Le processus d’amélioration continue a aussi pour but
de reprendre les extrants relatifs au programme de sécurité afin d’implanter un traitement effectif
23
des vulnérabilités évaluées, un des objectifs finaux étant de pré-conditionner et d’orienter les
prochains tests d’intrusion en visant certaines zones d’intérêt dans l’EC. Le Processus
d’amélioration continue (PAMC) permet donc d’apporter des améliorations de manière
incrémentale ayant pour but de constamment améliorer et consolider la posture de sécurité globale
de l’entreprise.
L’identification des vulnérabilités propre à un système d’information est une étape pouvant être
effectuée selon deux possibilités :
Un des problèmes majeurs dans l’identification des vulnérabilités repose dans l’aspect technique
très avancé propre aux vulnérabilités et aux risques associés. La conséquence est que les résultats
des tests d’intrusions sont souvent assimilés, par les administrateurs d’un EC, comme un intrant
difficile à interpréter et à comprendre.
Ci-dessous, nous présentons une vulnérabilité identifiée et concernant des algorithmes non
sécuritaires sur un site web exposé publiquement. La figure 3-2 représente des algorithmes de
chiffrement faillibles à certaines attaques par collision.
24
Il est donc nécessaire de produire une analyse d’impact des vulnérabilités de façon à standardiser
les vulnérabilités identifiées.
La partie concernant l’analyse des vulnérabilités est très importante, car elle permet d’effectuer la
conversion du risque associé à l’EC, de manière quantitative, en plusieurs données numériques et
interprétables. Ce risque se matérialise à travers les vulnérabilités trouvées lors des tests
d’intrusion. Il est bien important de comprendre que cette analyse adresse uniquement les risques
associés aux vulnérabilités. Pour pallier une approche trop technique et pour éviter tout biais de
compréhension, le processus PAC permettra de prendre en compte les paramètres d’affaires jugés
nécessaires pour l’étape d’évaluation.
Cela va de pair avec le raisonnement énoncé plus haut, lors de la définition et l’établissement des
critères de mesure. Les scénarios adressant des vulnérabilités peuvent aussi être ajoutés, mais cette
étape devrait être différenciée de celle adressant les vulnérabilités techniques. De plus, comme
mentionné précédemment, il est important d’utiliser cette méthodologie comme une partie venant
25
ajouter une valeur à l’analyse et à l’appréciation des risques. La prise en compte de l’analyse
quantitative permet de concrétiser et préciser le caractère d’impact propre aux menaces, à
l’encontre de certaines méthodologies d’analyse de risques qui viendraient souligner cet impact à
travers des scénarios et métriques beaucoup plus génériques.
L’analyse des vulnérabilités peut être effectuée grâce aux (CVSS) [17], et peut par la suite être
combinée ou convertie par le biais de VANSS (VulnerabilityAnalysis Scoring System), notre
propre schéma de pointage de vulnérabilité adapté pour les besoins de notre méthodologie et décrit
au chapitre 4. Le but est d’obtenir de façon constante une base standardisée de vulnérabilité, quelle
que soit la méthode utilisée. Le processus d’analyse peut cependant débuter directement à travers
les chiffriers et calculateurs quantitatifs disponibles pour CVSS et VANSS. L’expert en intrusion
peut, dès détection d’une vulnérabilité, utiliser l’outil de calcul et comparer le résultat à la base de
données de vulnérabilités (BDOV) pour vérifier si les différents facteurs de calculs sont
correctement ordonnancés.
Les résultats obtenus lors des tests d’intrusion incluent la planification des travaux, l’exécution des
tests d’intrusion, l’analyse des résultats et l’identification des solutions. Toutes ces informations
seront consolidées à l’intérieur d’un rapport d’analyse qui proposera des recommandations pour
contrer les vulnérabilités identifiées. L’approche préconisée ne se limite pas à la remise des
données et des rapports produits par les divers outils utilisés lors des tests, mais présente une
analyse approfondie des vulnérabilités identifiées pour le domaine d’affaires en plus d’une
présentation de solutions concrètes pour corriger ou mitiger les risques associés. Le rapport de
vulnérabilité, intrant principal de la méthodologie, est composé de plusieurs parties, dont le rapport
créé par l’ETI (Équipe de Test d’Intrusion), Celui-ci permet au client de bénéficier d’une base de
référence quant à la sécurité de son environnement, suite aux tests effectués. Le rapport doit être
obligatoirement composé des points suivants :
De façon à pouvoir transmettre les vulnérabilités relatives au rapport, il est nécessaire de passer par
un processus d’appréciation du contexte.
L’Indice de Détection et de Réponse (IDR) permet de cerner la position d’une entreprise relative à
sa maturité en termes de sécurité des actifs informationnels sur un environnement spécifique (voir
Section 4.1.9). Néanmoins il est nécessaire de développer des considérations plus larges pour
mieux cerner le contexte organisationnel global en termes de sécurité informatique. De plus, il est
vital d’aligner les objectifs d’affaire d’un client avec la gouvernance propre à la sécurité de ses
actifs. Pour cela, l’Équipe de Gestion des Risques (EGR) doit déterminer avec le client les raisons
pour lesquelles ce dernier requiert une amélioration de la structure d’évaluation des risques propres
à la sécurité informatique. Ce processus de questionnement et d’apprentissage prend tout son sens
dans le développement d’une stratégie personnalisée et efficace.
Par la suite, il est nécessaire de redéfinir des critères de mesures de risques permettant de mieux
répondre aux attentes de l’entreprise en rapport avec la sécurité de son information.
Il est à noter que cette méthodologie se distingue par une structure peu commune, car faisant l’objet
d’une vision novatrice concernant l’évaluation des risques en entreprise. La notion de critère,
utilisée de manière très courante dans la terminologie d’évaluation des risques, vient ici illustrer
les critères d’impacts que l’on définit habituellement en début de mandat.
28
ITREM vient donc insérer une dimension des critères de manière complètement singulière, et ce
dans le but de répondre correctement aux besoins du client en matière d’expertise technologique et
d’orientation relative à la sécurité de son environnement.
Le premier ensemble de critères en rapport direct avec l’EC est celui déterminé de manière
générique par VANSS (Vulnerability Analisys Scoring System). Ce sont les indices permettant de
caractériser une vulnérabilité avec une valeur numérique. Il est donc important de considérer ces
derniers comme des indicateurs techniques sur l’exposition de l’environnement.
Le fait d’avoir une précision de la part du CPM ou du client, permettant de raffiner et de préciser
les critères, résulte en une meilleure vision du contexte propre à ce dernier. Cela entraine une
amélioration dans l’analyse des vulnérabilités et leurs scores.
Lors de la définition des critères, il est important de déterminer et de prioriser l’importance des
critères suivant :
29
Critères d’impact
Les critères d’impact sont un reflet des indices utilisés dans VANSS pour déterminer et quantifier
l’impact en cas de matérialisation d’une menace sur l’EC. D’autres critères d’impact peuvent être
considérés pour mieux apprécier le contexte d’entreprise et sa vision des risques. De cette façon,
nous assurons une corrélation entre l’appréciation du risque et son évaluation en prenant une base
de critères et d’indices communs.
Par la suite, il est nécessaire de mesurer quantitativement les risques à travers VANSS en modifiant
les pondérations d’indices, cela permet ainsi de refléter l’importance des critères pour que le score
de risque soit le plus précis possible.
Pour la priorisation et la pondération des facteurs de risque, veuillez vous reporter au chapitre 4.
entreprises, dépendamment de leur secteur d’activité, auront tendance à présenter des similarités
tant au niveau des actifs informationnels qu’aux contre-mesures et processus en assurant la
protection.
Les PME sont de plus en plus nombreuses à prendre conscience de l’importance de la sécurité de
l’information. Cependant, par manque de temps, de ressources et de moyens, la sécurité est souvent
reléguée en dernier plan.
D’avoir une meilleure appréciation quant à leur degré de maturité et de réactivité face aux
évènements de sécurité.
D’adapter une offre de service en fonction du processus de test d’intrusion.
o Fournir du conseil personnalisé quant à la gestion des actifs informationnels et de
leur sécurité.
o Fournir l’opportunité de réduire les profils d’actifs à risque grâce à une
méthodologie basée sur des standards internationaux et reconnus à l’échelle
mondiale.
Les grandes entreprises (moins de 5000 employés) ont la plupart du temps des besoins plus
spécifiques en rapport avec le PTI. Ces dernières engagent généralement une Équipe de Tests
d’Intrusion (ETI) pour répondre à des requis propres à différentes normes et aux certifications
associées. Cependant, ces mêmes tests exigés sont généralement basiques et ne couvrent qu’une
partie des EC supportant des actifs critiques ou sensibles. Il est donc à leur avantage de continuer
ces tests d’intrusion sur d’autres parties de leur plateforme traitant l’information. Les observations
constatées lors des phases pilotes de la méthodologie permettent de déduire que ces entreprises
détiennent un faible niveau de maturité en ce qui a trait au suivi et au développement futur de leur
posture de sécurité.
31
Les très grandes entreprises (telles que des multinationales), quant à elles, visent plutôt un service
de tests d’intrusion complémentaire et à valeur ajoutée. Elles possèdent généralement l’expertise
nécessaire à la gestion des actifs informationnels et leur sécurité. Cependant, elles ne détiennent
pas une évaluation des risques arrimée avec les tests d’intrusion et cela confirme un constat général
faisant état d’un fossé de communication entre les équipes techniques, administrant les systèmes
d’information dans l’EC, et les équipes d’évaluation des risques, s’occupant de l’énumération des
scénarios jusqu’au traitement des risques.
Une fois que l’appréciation du contexte est effectuée à travers la compréhension de l’EC et de la
détermination des poids des critères de mesure, il est possible de passer à l’étape d’évaluation des
risques relatifs à l’EC.
Ces étapes, bien que génériques et reprises dans de nombreuses méthodologies, peuvent être
modifiées pour apporter une dimension de personnalisation et d’adaptation. Il est à préciser que la
méthodologie créée permet de venir adapter l’évaluation des risques selon la portée de l’EC, sur
lequel les tests d’intrusion ont été conduits.
La fusion entre les tests d’intrusion et l’évaluation des risques permet de créer une valeur notoire
sur le marché très complexe et varié concernant la protection des données en entreprises. En effet,
le processus d’intrusion s’assimile à un intrant très précis et factuel, en grande partie dû au fait que
32
ce dernier reflète concrètement les attaques et tests réels sur une infrastructure numérique
composée de plusieurs équipements et progiciels. La méthodologie vient donc se placer comme un
processus complémentaire et mélioratif par rapport aux autres types de méthodes d’énumération
de scénarios hypothétiques.
VANSS sera le moteur principal pour l’évaluation et la représentation des risques relatifs à un EC.
À cet effet, vous pouvez vous reporter directement au chapitre 4 pour l’analyse détaillée du moteur
d’évaluation des risques.
Ces trois points, soutenant l’apprentissage organisationnel, permettent d’initier le cycle continu
que nous désirons inscrire dans le processus méthodologique d’ITREM.
En effet, nous désirons créer des indicateurs précis permettant à l’entreprise de conserver une
traçabilité des tests effectués, des risques évalués et des traitements appliqués.
- La portée des tests ainsi que les vulnérabilités trouvées sur un EC.
Cela permet de constituer des bases servant de référence, tant pour l’entreprise requérant une
identification et évaluation des risques que pour la méthodologie visant à conserver une traçabilité
des tests et risques relatifs pour chaque entreprise dans une catégorie d’affaires.
33
Le processus d’amélioration continu permettra, à long terme, de conforter et faire évoluer les bases
de vulnérabilités ainsi que les indicateurs sous-jacents. C’est le processus permettant de reconduire
le cycle de gestion des risques vers la prise de contexte et l’identification des vulnérabilités sur des
nouveaux segments de l’environnement numérique.
34
4.1 VANSS
Nous allons définir à travers ce processus de traitement de vulnérabilités les différentes mesures
permettant d’apporter une valeur déterministe, novatrice et différente de CVSS. Les mesures
définies dans ce document devront être utilisées en parallèle avec CVSS. Elles permettent
d’influencer les décisions qui vont découler de l’étape d’analyse des risques.
En premier lieu, c’est une plateforme d’analyse adaptable. En effet les différents facteurs que nous
exposons permettent d’être adaptés et modulés en fonction des profils d’analyse. Ces profils
permettent de catégoriser les environnements sur lesquels les analyses seront effectuées. Les règles
de pondération peuvent donc être adaptées en fonction du besoin, du contexte de l’EC et des
environnements similaires.
Par ailleurs, la comparaison des facteurs et des risques permet de son côté à chaque vulnérabilité
identifiée d’être caractérisée en fonction de différents facteurs représentant eux-mêmes plusieurs
indices :
o 4 facteurs
o 16 indices
o 75 paliers
35
4.1.2.1 Risques
Les risques définis à travers cette méthode sont tous associés à une ou plusieurs vulnérabilités
identifiées précédemment dans l’étape comprenant les tests sur les infrastructures de données.
L’identification des vulnérabilités permet donc d’obtenir un ensemble de failles exploitées chacune
par une ou plusieurs menaces potentielles et une atteinte aux principes de confidentialité, d’intégrité
et de disponibilité.
La méthode actuelle utilisée lors des tests d’intrusion et pour l’analyse des vulnérabilités est CVSS.
Elle permet d’apporter une approche standardisée et de calculer les scores d’impact sur une échelle
de 0 à 10 (0 indiquant un impact extrêmement faible et 10 un impact extrêmement élevé en cas de
matérialisation de la menace). La métrique CVSS de base (composée de 6 facteurs) ne donne
malheureusement pas d’information sur les tendances, l’environnement du client, et les facteurs de
menaces externes. C’est en se basant sur ces intrants manquants, sur notre vision de la sécurité,
ainsi que sur l’analyse d’autres méthodologies et mesures que nous allons créer de nouvelles
mesures.
Les mesures que nous allons exposer dans ce document vont permettre d’obtenir d’autres valeurs
numériques permettant de faire correspondre des niveaux d’exposition propres aux caractéristiques
des vulnérabilités. De plus, ces mesures seront utilisées en parallèle avec celles de CVSS.
Les facteurs propres aux mesures seront détaillés dans les parties 3, 4 et 5 de cette section. Le but
de cette partie est d’exposer globalement ces dernières et de montrer comment elles interagissent
entre elles dans la détermination des scores. Les détails concernant les calculs seront exposés dans
la partie 6.
Il est important de considérer les termes suivants pour la lecture de la suite de ce document.
36
Mesures. Les mesures représentent les différents ensembles majeurs de cette méthodologie
d’analyse des risques. Elles rassemblent les différents facteurs et permettent d’obtenir un score de
risque unique pour chacune d’entre elles.
Facteurs. Ces derniers sont intrinsèquement liés aux mesures. Ils expriment les caractéristiques de
chacune. Par exemple, pour une mesure de potentialité, un des facteurs déterminants sera
l’exploitation. Chaque facteur est détaillé lorsqu’une nouvelle mesure est exposée. De plus, les
facteurs peuvent être pondérés pour accorder une priorisation plus ou moins importante selon le
contexte client et l’environnement sur lequel reposent les actifs informationnels.
Indice. Les indices sont les sous-ensembles des mesures, ils viennent représenter numériquement
les risques propres à chaque vulnérabilité identifiée. Pour cela, ils sont composés de paliers qui
servent à énumérer et concrétiser les valeurs numériques caractérisant chaque vulnérabilité.
Veuillez trouver ci-dessous le tableau représentant le modèle permettant d’illustrer chaque facteur.
Facteur modèle
L’échelle de calcul des risques de VANSS, une fois les vulnérabilités identifiées, est calquée sur le
même intervalle que CVSS. À savoir :
Cette échelle est inspirée de la norme ISO/IEC 31000:2009 intitulée « Management du risque —
Principes et lignes directrices » [19].
Une fois que le testeur a identifié un risque potentiel et veut quantifier la gravité attenante, la
première étape consiste à estimer sa « potentialité ». La façon de le faire est d’estimer une mesure
de la potentialité liée à la vulnérabilité. Cette estimation repose sur une prémisse tenant en compte
que la faille est découverte et exploitée par l’attaquant. Il est nécessaire d’être précis avec les
estimations lors de l’analyse de l’environnement client de manière à avoir le maximum de
cohérence dans le calcul des scores de risque.
De nombreux indices permettent d’estimer la potentialité. Nous allons catégoriser ces indices de
potentialité en deux catégories de facteurs.
Le but de ce facteur est d’estimer précisément, grâce aux tests d’intrusion, les groupes d’attaquants
susceptibles de mener une/des attaques avec succès. Il est à noter que les résultats des tests
d’intrusion, effectués précédemment, permettent d’avoir une vision très claire et précise sur
l’ensemble des failles présentes sur l’environnement. De plus, l’équipe responsable du processus
d’intrusion est expérimentée et vraisemblablement dans une position clé pour visualiser les
différents acteurs afférents aux vulnérabilités et capables de les exploiter.
Les indices propres au facteur d’agents de menace sont quantifiés sur une échelle de 0 à 10.
Le but du facteur de vulnérabilité est d’apporter grâce aux différents indices les caractéristiques et
la quantification des aspects propres aux failles.
Les indices liés au facteur de vulnérabilité sont quantifiés sur une échelle de 0 à 10. La pondération
de chaque indice permet de représenter le niveau de criticité en relation avec la découverte et
l’exploitation des vulnérabilités.
Lorsque nous arrivons à l’étape d’énumérer et calculer les mesures d’impact, il est important de
considérer deux types de répercussions importantes. La première représente le facteur d’impact
technique. La deuxième, le facteur impact d’affaires.
L’impact technique vient toucher l’application, le réseau, le système, les données présentes et les
fonctionnalités majeures.
L’impact d’affaires vient quant à lui se placer après le facteur technique et requiert une bonne
compréhension du contexte d’affaires de l’entreprise et des impacts financiers liés aux systèmes
d’information. Il est à noter que les informations financières peuvent ne pas être accessibles. Il
convient donc de poser des hypothèses en supposant des plafonds d’impacts, ou de produire le plus
de détails techniques de telle manière à ce que les responsables du mandat puissent prendre une
décision sur les indices d’affaires.
o Privée (6)
Exemple : Contrats avec des fournisseurs, revenus d’employés
o Interne (4)
Exemple : Directives de vente, organigrammes
o Publique (2)
42
Les méthodes concernant l’aide à la décision sont nombreuses et se focalisent principalement sur
une approche scientifique permettant de résoudre les problèmes de décision applicables à une
multitude de contextes. Dans notre cas actuel, l’aide à la décision passe par une méthode de calcul
45
prenant comme base les sommes pondérées des différents indices VANSS pour produire un score
de vulnérabilité en accord avec la réalité de l’EC.
Pour corroborer le vocabulaire utilisé dans les analyses multicritères, nous faisons face à une
situation où il est nécessaire de créer une modélisation des vulnérabilités, et ce dans le cas d’une
problématique de tri. Pour cette analyse, il est impératif de prendre en compte des critères qui
serviront aux calculs et à la transformation numérique des valeurs associées aux indices. Nous
évoluons donc dans un cadre ouvert de réflexion, où le but tend vers un modèle d’investigation et
de solutions concernant les vulnérabilités.
4.1.6.2 Pondération
La pondération est une étape très importante dans l’appréciation et la notation des risques. Les
scores de vulnérabilité seront influencés par cette pondération et il est donc nécessaire de la choisir
de façon adaptée pour les calculs. Pour cela, vous pouvez vous référer au tableau ci-dessous pour
prendre référence des pondérations établies selon les indices.
𝒏
(1)
𝑽(𝒗𝒊 ) = ∑ 𝒘𝒋 𝒗𝒊𝒋 , ∀𝒊 ∈ [𝟏,𝒏]
𝒋
46
- 𝑉(𝑣𝑖 ) Valeur du score de risque. La valeur du score de risque est composée de 3 chiffres
significatifs.
significatifs.
- 𝑣𝑖𝑗 Valeur normalisée de l’indice. La valeur est composée d’un chiffre significatif.
Voici donc les indices et facteurs que l’on considérera comme critères dans la suite de l’explication
de la méthodologie.
Calculateur
vulnérabilité
INC IMO IOP IPA IDE IEP ITP IVA IPC IPI IPD IDF IDR IIP TOT
Pondération
Facteurs 40 20 50 30 140
Comme expliqué précédemment, le but est que les Membres de l’Équipe de Test d’Intrusion
(METI) tirent profit de la connaissance acquise sur l’EC pour ajuster les différentes pondérations.
Cependant, ils peuvent toujours prendre leurs références et utiliser les différents modèles clients
où les pondérations sont déjà calculées, et servent à produire les scores plus rapidement. Cela
facilite la tâche pour l’analyse.
47
Comme décrit dans le tableau ci-dessus, la somme des facteurs et la somme des indices doivent
être supérieures à 140. La répartition de la pondération par facteur est donc importante, car
privilégier un facteur implique forcément d’en diminuer un autre.
𝒏
(2)
∑ 𝒘𝒋 ≥ 𝟏𝟒𝟎 , ∀𝒋 ∈ [𝟏,𝒏]
𝟏
4.1.6.3 Normalisation
La normalisation des poids permet de vérifier que la somme des indices ne peut dépasser la valeur
de risque maximale (10), tout en tenant compte de la pondération appliquée. Pour cela, nous
divisons chaque valeur propre aux critères de vulnérabilités par la somme totale des valeurs.
𝒗𝒊 (3)
𝒗𝒊𝒋 = , ∀𝒊 ∈ [𝟏, 𝒏]
∑𝒊 𝒂 𝒊
- 𝑣𝒊𝒋 Valeur normalisée pour chaque indice. Cette valeur ne comporte qu’un seul chiffre
significatif.
Si je détermine que deux de mes indices sont plus importants que le reste, nous allons donc les
pondérer en accord et voir l’impact sur le score de risque.
48
Calculateur
T
P
R
C
E
vulnérabilité
F
P
P
TO
IM
IIP
I
IO
IN
ID
ID
ID
IP
IP
IP
IP
IE
IT
IS
Facteurs FAM (38) FV (22) FIT (45) FA (35)
Pondération / Facteur 40 20 50 30 140
Pondération / Indice 10 10 10 10 10 10 10 10 10 10 10 10 10 10 140
Vulnérabilité 1 10 4 6 4 4 6 6 6 10 10 8 10 10 10 140
0.1 0.03 0 0.03 0 0 0 0 0.1 0.1 0.06 0.07 0.07 0.1 7.43
Il est important de préciser que les scores de risque obtenus, ainsi que les scores pour les indices,
sont systématiquement arrondis au centième.
Les valeurs normalisées sont surlignées en jaune et les valeurs sans normalisation sont en orange.
On distingue bien ici que chaque critère est divisé par 140, représentant la somme totale des poids
pour chacun des indices propres à la vulnérabilité.
Ci-dessous, deux indices vont bénéficier d’une priorisation. Ces derniers seront IPD (Indice de
Perte de Disponibilité) et IDF (Indice de Dommage Financier). Nous allons leur attribuer une
pondération de 50 chacun.
Calculateur
O
T
P
R
C
vulnérabilité
C
F
P
P
TO
IM
IIP
I
IO
IN
ID
ID
ID
IP
IP
IP
IP
IE
IT
IS
Vulnérabilité 1 10 4 6 4 4 6 6 6 10 10 8 10 10 10 220
0 0.02 0 0.02 0 0 0 0.03 0 0 0.04 0.05 0.05 0 8
On distingue bien ici que chaque critère est divisé par 220, représentant la somme totale des poids
pour chacun des indices propres à la vulnérabilité.
50
Chaque vulnérabilité est par la suite calculée en faisant la somme des valeurs normalisées
multipliées par le poids des critères.
Vulnérabilité 1 10 4 6 4 4 6 6 6 10 10 8 10 10 10 140
0.07 0.03 0.04 0.03 0.03 0.04 0.04 0.04 0.1 0.1 0.06 0.07 0.07 0.1 7.43
Il est très important de considérer que le calcul des scores de risques est dépendant des critères et
de leur pondération.
Les vulnérabilités relevées dans les EC doivent être analysées, puis classées et réparties selon la
catégorie d’affaires à laquelle appartient l’EC. Pour cela, sachant que chaque mandat client donne
lieu à des ensembles de vulnérabilités uniques, nous introduisons la notion de Base de Donnée
Orientée Vulnérabilité (BDOV).
51
Les BDOV sont les bases répertoriant toutes les vulnérabilités des EC. Chaque BDOV est unique
de par le nombre et le type de vulnérabilités la caractérisant. Ce système de classification des
vulnérabilités permet de donner à GIPS toute la matière nécessaire à la création des indicateurs de
sécurité. À partir des données récoltées sur les EC et traduites numériquement à travers VANSS, il
est avantageux de créer des indicateurs statistiques qui permettront de fournir une dimension de
suivi personnalisé pour chaque client. Il faut garder en tête qu’aucune donnée relative au client, et
pouvant mener à son identification, ne pourra être dévoilée. Pour cela, chaque BDOV devra être
identifiée par un ID unique permettant d’y faire référence.
Les BDOV sont composées de toutes les vulnérabilités trouvées et analysées sur un EC. Une fois
que le METI a attribué un score à chaque vulnérabilité, il est important de classer ces dernières par
ensembles de vulnérabilités (EV). La notion d’EV est un des points clés de la méthodologie, car
elle permet de réunir plusieurs vulnérabilités impactant les mêmes composants, équipements,
logiciels ou domaines. Par exemple un EV peut correspondre à la zone réseau externe, les postes
de travail utilisateurs, les serveurs applicatifs, etc. Ils sont généralement dépendants du mandat et
de la portée de ce dernier. Les catégories d’EV seront exposées dans chaque BDOV pour que le
METI puisse y faire référence et procéder à la classification.
Une fois cette étape de classification achevée, les EV peuvent être révisés par un pair, contribuant
à une double vérification quant à la justesse de classification des vulnérabilités dans les EV. Une
fois les EV constitués, les statistiques et profils propres aux risques associés seront calculés en
fonction des vulnérabilités contenues dans chaque ensemble. Les METI peuvent ensuite donner
leur recommandation par vulnérabilité et par EV. Plusieurs illustrations, présentées ci-dessous,
52
permettront de mieux représenter les BDOV, VOD et les interactions dans la partie d’analyse des
vulnérabilités.
Les RDV (Répertoires Dédiés aux Vulnérabilités) sont simplement les dossiers, chiffriers ou bases
de données répertoriant toutes les BDOV par catégorie d’affaires (CAF). Cela permet d’obtenir
plusieurs informations d’ordre comparatif, par rapport aux tendances de menace sur le marché de
la sécurité des technologies de l’information et par types de CAF. La criticité des informations est
potentiellement similaire selon les catégories d’affaires.
Les ensembles de vulnérabilités représentent un élément clé de cette méthodologie. Ils permettent
de classer les vulnérabilités, mais surtout ils guident les MEGR (Membre de l’Équipe de Gestion
des Risques) vers les catégories de contrôle et de contre-mesures à implanter lors de l’étape de
traitement. Un EV n’est autre qu’un groupe de vulnérabilités pouvant se rattacher à une catégorie
de contrôle. La raison repose dans le traitement et les contre-mesures. Si une vulnérabilité est
réduite par un contrôle, il est fort probable que le contrôle en question puisse aussi réduire la posture
de risque pour d’autres vulnérabilités se rapportant à la même catégorie de contrôle. Lorsqu’un
METI regroupe les vulnérabilités d’un EC, il se doit de le faire en prenant les 32 catégories de
contrôle propres à ISO/IEC 27002 :2013 [20], intitulées « Techniques de sécurité - Code de bonne
pratique pour le management de la sécurité de l’information ».
Voici quelques-unes des catégories avec lesquelles les METI et MEGR doivent associer les
vulnérabilités de l’EC.
6.1 Organisation interne Établir un cadre de management pour lancer et vérifier la mise en
place et le fonctionnement opérationnel de la sécurité de
l’information au sein de l’organisation.
8.1 Responsabilités relatives Identifier les actifs de l’organisation et définir les responsabilités
aux actifs pour une protection appropriée.
54
Désormais, il est primordial de définir en quoi les bases de données de vulnérabilités vont servir
de source pour GIPS. L’IDR (Indice de Détection et de Réponse) et les indicateurs de posture vont
permettre de répondre à ce besoin. Pour cela, la prochaine sous-partie va nous permettre
d’introduire ces différentes notions.
Exemple :
IDR IDR
C1 C2 C3 C4 C5 C6 C7
(MOY) (Med)
1 5 1 2 3 1 3 3 2
Le tableau ci-dessous permet de représenter les 7 catégories propres à l’IDR. Le score de l’IDR est
calculé en additionnant la valeur de chacune des caractéristiques et en faisant une moyenne simple.
59
L’étape d’évaluation du risque permet de prioriser les vulnérabilités pour mieux les catégoriser et
raffiner les résultats qui permettront d’obtenir un processus de traitement plus ciblé. Pour cela, il
est nécessaire de passer à travers plusieurs matrices d’évaluation. Ces dernières vont refléter
directement la posture de l’EC en basant l’effort de priorisation sur le total et les ensembles de
vulnérabilités.
4.2.1.1 Vulnérabilité
La première matrice est une version classique que l’on peut retrouver dans la classification des
risques conventionnels. Elle permet d’afficher les vulnérabilités sur une matrice caractérisant
l’impact et la potentialité. Pour cela, chaque vulnérabilité comporte deux caractéristiques propres
aux facteurs de potentialité et d’impact définis dans VANSS.
Les axes de potentialité et d’impact représentent les échelles quantitatives sur lesquelles nous
faisons correspondre les vulnérabilités.
60
Le facteur de potentialité pour une vulnérabilité donnée sera égal à la moyenne des indices du
facteur en question.
̅=
𝒙
∑𝒙 (4)
𝒏
Le score de potentialité sera calculé par la même méthode que le risque (voir section 4.1.6.4). Nous
prendrons seulement en compte les deux facteurs de potentialité ainsi que leurs indices respectifs,
comme le montre le tableau ci-dessous.
61
10 4 6 4 4 6
0 0.02 0 0.02 0 0
Le score d’impact sera calculé par la même méthode que le risque (voir section 4.1.6.4). Nous
prendrons seulement en compte les deux facteurs d’impact ainsi que leurs indices respectifs,
comme le montre le tableau ci-dessous.
6 6 10 10 8 10 10 10
0 0 0 0 0.04 0.05 0.05 0
Dès lors, nous obtenons deux valeurs caractérisant la vulnérabilité et son risque.
Une fois les valeurs respectives des facteurs de potentialité et d’impact obtenues, il est possible de
positionner la vulnérabilité en question sur la matrice.
Les ensembles de vulnérabilités vont être utilisés pour compléter la première matrice selon les
règles présentées ci-dessous :
62
La valeur du facteur d’impact, pour un ensemble de vulnérabilités données, sera égale à la valeur
moyenne des facteurs d’impact de chaque vulnérabilité composant l’ensemble.
Le tableau ci-dessus permet de représenter la méthode quantitative pour attribuer les valeurs de
potentialité et d’impact à un ensemble de vulnérabilité composé de plusieurs vulnérabilités.
Une fois les valeurs des facteurs propres aux EV obtenus, il ne reste qu’à les placer sur la matrice
et émettre les observations en accord avec l’étape de priorisation.
Une fois l’étape d’évaluation révolue, il est nécessaire de garder à l’esprit les différents éléments
ayant conduit à une priorisation donnée en termes de niveau de risque. Cela permet de conserver
le contexte d’évaluation pour ainsi passer au traitement des EV ayant été sélectionnés.
63
4.3 Traitement
Le traitement des vulnérabilités est une étape cruciale dans le cycle d’évaluation des risques. Il
permettra de sélectionner les EV et les vulnérabilités associées pour les considérer dans le
processus de mise en œuvre des contre-mesures.
De plus, grâce à l’orientation d’ITREM vers les normes internationales ISO 27000, la
méthodologie permet l’utilisation de l’ISO 27002 et de l’association des EV avec les contrôles
propres à la norme. Cela permet de mieux effectuer la liaison entre les différents ensembles de
vulnérabilités et les contrôles de sécurité associés.
La norme internationale ISO 27002:2013 [22]a pour objet de servir d’outil de référence permettant
aux organisations de sélectionner les mesures nécessaires dans le cadre d’un processus de mise en
œuvre d’un système de management de la sécurité de l’information (SMSI) selon la norme l’ISO/
CEI 27001 [23] ou de guide pour les organisations mettant en œuvre des mesures de sécurité de
l’information largement reconnues. Cette norme a également pour objet d’élaborer des lignes
directrices de management de la sécurité de l’information spécifiques aux organisations et aux
entreprises, en tenant compte de leur(s) environnement(s) particulier(s) de risques de sécurité de
l’information. Elles totalisent 114 contrôles spécifiques et permettent de répondre aux attentes en
matière de conformité imposées par ISO 27001 dans le cadre du processus de certification. Ces
contrôles vont être directement liés avec les unités de tests d’intrusion.
64
De plus, pour chaque catégorie de contrôles, il est nécessaire d’orienter les MEGR vers d’autres
normes ISO 27000 pour compléter l’étape de traitement avec une norme adaptée ou un guide de
contre-mesures.
Des organisations de tous types et de toutes dimensions (incluant le secteur public et le secteur
privé, à but lucratif ou non lucratif) collectent, traitent, stockent et transmettent l’information sous
de nombreuses formes, notamment électronique, physique et verbale (par exemple, au cours de
conversations et de présentations).
La sécurité de l’information est assurée par la mise en œuvre de mesures adaptées, qui regroupent
des règles, des processus, des procédures, des structures organisationnelles et des fonctions
matérielles et logicielles. Ces mesures doivent être spécifiées, mises en œuvre, suivies, réexaminées
et améliorées aussi souvent que nécessaire, de manière à atteindre les objectifs spécifiques en
matière de sécurité et d’activité d’une organisation. Un SMSI tel que celui spécifié dans l’ISO/ CEI
27001 appréhende les risques de sécurité de l’information de l’organisation dans une vision globale
et coordonnée, de manière à mettre en œuvre un ensemble complet de mesures liées à la sécurité
de l’information dans le cadre général d’un système de management cohérent.
Nombreux sont les systèmes d’information qui n’ont pas été conçus dans un souci de sécurité au
sens de l’ISO 27001 et 27002. La sécurité qui peut être mise en œuvre par des moyens techniques
est limitée et il convient de la soutenir à l’aide de moyens de gestion et de procédures adaptées.
L’identification des mesures qu’il convient de mettre en place nécessite de procéder à une
planification minutieuse et de prêter attention aux détails. Un SMSI efficace requiert l’adhésion de
tous les employés de l’organisation. Il peut également nécessiter la participation des actionnaires,
des fournisseurs ou d’autres tiers. De même, l’avis et l’intervention de l’ETI et l’EGR, en tant
qu’experts externes, se révèlent nécessaires.
De manière plus générale, une sécurité de l’information efficace garantit également à la direction
et aux parties tiers que les actifs de l’organisation sont, dans des limites raisonnables, sécurisés et
à l’abri des préjudices, et contribuent de ce fait au succès de l’organisation.
65
Une organisation doit impérativement identifier ses exigences en matière de sécurité. Ces
exigences proviennent de trois sources principales:
a) L’appréciation du risque propre à l’organisation, prenant en compte sa stratégie et ses
objectifs généraux, qui permet d’identifier les menaces pesant sur les actifs, d’analyser les
vulnérabilités, de mesurer la vraisemblance des attaques et d’en évaluer l’impact
potentiel;
b) Les exigences légales, statutaires, règlementaires et contractuelles auxquelles
l’organisation et ses partenaires commerciaux, contractants et prestataires de service,
doivent répondre ainsi que leur environnement socioculturel;
c) L’ensemble de principes, d’objectifs et d’exigences métier en matière de manipulation, de
traitement, stockage, communication et archivage de l’information que l’organisation
s’est constituée pour mener à bien ses activités.
Il est nécessaire de confronter les ressources mobilisées par la mise en œuvre des mesures avec les
dommages susceptibles de résulter de défaillances de la sécurité en l’absence de ces mesures. Les
résultats d’une appréciation du risque permettent de définir les actions de gestion appropriées et les
priorités en matière d’évaluation des risques liés à la sécurité de l’information, ainsi que de mettre
en œuvre les mesures identifiées destinées à contrer ces risques.
La norme ISO/IEC 27005:2009, intitulée « Gestion des risques liés à la sécurité de l’information »,
fournit des lignes directrices de gestion du risque lié à la sécurité de l’information. Cette norme
inclut des conseils sur l’appréciation du risque, le traitement du risque, l’acceptation du risque, la
communication relative au risque, la surveillance du risque et la revue du risque. Cependant,
comme mentionnée ci-dessus, ISO 27005 joue beaucoup plus un rôle de guide global permettant
par la suite l’appareillement de méthodologies répondant aux exigences normatives. C’est en ce
sens que ITREM se calque sur les principes et étapes d’évaluation des risques énumérés à travers
ISO 27005.
66
Selon les cas, il est possible de sélectionner les mesures dans la présente norme (ISO 27002) ou
dans d’autres guides, ou encore de spécifier de nouvelles mesures en vue de satisfaire des besoins
spécifiques. La sélection des mesures dépend des décisions prises par l’organisation en fonction de
ses critères d’acceptation du risque, de ses options de traitement du risque et de son approche de la
gestion générale du risque. Il convient également de prendre en considération les lois et règlements
nationaux et internationaux concernés. La sélection des mesures de sécurité dépend également de
la manière dont les mesures interagissent pour assurer une défense en profondeur. Certaines
mesures décrites dans ISO 27002 peuvent être considérées comme des principes directeurs pour le
management de la sécurité de l’information et être appliquées à la plupart des organisations. Les
mesures et les lignes directrices de mise en œuvre sont disponibles à travers les liens dans le tableau
4-10.
Chaque objectif ou ensemble d’objectifs liés à un contrôle doivent par la suite être quantifiés en
termes de temps, coûts et réduction. Cela fait partie de la documentation à produire dans le cadre
de la stratégie de sécurité.
Pour sélectionner les effets des contrôles sur le risque et les adapter à l’EC ainsi qu’à la stratégie,
veuillez vous référer au tableau de données permettant de prioriser les effets des contrôles en
fonction de la situation de l’EC.
Voici les 14 catégories de contrôles présentes dans la norme ISO 27002 et dans d’autres cadres
normatifs propres à la sécurité de l’information :
ISO/IEC 27038
5 Contrôle d’accès
6 Cryptographie
10 Acquisition, développement et
maintenance des systèmes d’information
Une des étapes les plus délicates et potentiellement ardues du processus ITREM, tel que nous
l’avons décrit aux chapitres 3 et 4, est celle de la priorisation des vulnérabilités découvertes lors
des tests d’intrusion. Cette étape, décrite plus précisément à la section 4.2, nécessite la
participation d’experts qui puissent évaluer l’impact des vulnérabilités regroupées par Ensembles
de vulnérabilités (EV) en tenant en considération les divers facteurs spécifiques à
l’environnement client (EC) et les réalités de l’entreprise.
Afin d’alléger cette tâche par les experts analystes en sécurité informatique, mais aussi dans le
but de potentiellement permettre à d’autres non-experts de participer à cette tâche, nous avons
tenté dans ce projet d’utiliser des techniques d’intelligence artificielle (IA) afin d’automatiser la
détermination des catégories d’impacts des EV. Nous avons utilisé des Support Vector Machine
(SVM) et la régression logistique pour effectuer notre expérience et essayer d’obtenir un
pourcentage élevé de corrélation et de catégorisation correcte.
Stefan Fenz [24], dans son article, donne en premier lieu une définition sous forme d’ontologie,
concernant les vulnérabilités d’un système TI. Cette ontologie permet donc de servir de base pour
la construction d’un réseau bayésien. Le but de ce dernier est la détermination de la potentialité
des menaces, elles-mêmes définies dans l’ontologie. Pour chaque menace, l’approche de sa
solution à travers les réseaux bayésiens permet de lui faire correspondre les vulnérabilités
correspondantes. Fenz détermine ses potentialités en utilisant des vecteurs pour chaque
vulnérabilité. Il détermine d’ailleurs le poids de chacune à travers un calcul divisant la valeur
numérique du vecteur de sévérité par la somme de sévérité de toutes les vulnérabilités propres à
la menace. Son approche théorique est pertinente et permet de bien cerner les interactions dans le
70
modèle de réseau grâce à une ontologie très bien définie. Cependant, ce travail ne restitue pas
réellement les problématiques propres aux environnements TI à risque. Il y a beaucoup trop de
facteurs sous-jacents à une vulnérabilité pour simplement générer un modèle simpliste sans étude
pratique et de simulation du cas. Lui-même le mentionne à la fin de son article.
L’approche théorique vient donc expliquer en détail quelle est notre problématique, et comment
nous allons la résoudre en choisissant de manière pertinente deux algorithmes d’apprentissage
supervisé.
Les tests d’intrusion consistent en une méthode dont le but est de simuler une attaque d’un acteur
mal intentionné, voire d’un logiciel malveillant. On analyse alors les risques potentiels dus à une
mauvaise configuration d’un système, d’un défaut de programmation, ou encore d’une
vulnérabilité liée à la solution testée. Lors d’un test d’intrusion, nous nous retrouvons dans la
position de l’attaquant potentiel. Le principal but de cette manœuvre est de trouver des
vulnérabilités exploitables en vue de proposer un plan de gestion du risque permettant
d’améliorer la sécurité d’un système.
Les risques définis sont tous associés avec une ou plusieurs vulnérabilités impactant les systèmes.
L’identification des vulnérabilités permet donc d’obtenir un ensemble de failles représentant
chacune une menace potentielle et une atteinte aux principes de confidentialité, intégrité et
disponibilité.
71
La gestion des vulnérabilités et des risques associés peut être illustrée par le tableau 4-14 ci-
dessous :
L’étape d’identification se résume aux tests d’intrusion. Elle permet de récupérer nos données, à
savoir les vulnérabilités.
L’étape d’analyse passe par la quantification des vulnérabilités et de leurs scores de risques. Cela
s’effectue .grâce à la mise en place d’indices permettant de sélectionner une valeur numérique sur
une échelle de Likert. La combinaison de ces indices permet d’obtenir un score final qui
caractérise le risque relatif à la vulnérabilité. Dépendamment du risque et de sa valeur, ce dernier
pourra être caractérisé selon le système HML (High, Medium, Low).
Le but est donc de reproduire cette attribution HML de manière automatisée lorsqu’un expert en
tests d’intrusion a entré les différentes valeurs par indices.
72
Les mesures, facteurs et indices propres à ce procédé sont ceux définis plus tôt, dans la section
4.1.4.
Il existe en tout 15 indices pour quantifier une vulnérabilité sur sa posture de risque. Par la suite,
faisons une courte exposition théorique des algorithmes que nous allons utiliser.
L’émergence des Support Vector Machines (SVM) a commencée au début des années 1990,
grâce aux efforts de recherches sur l’apprentissage machine par les mathématiciens russes
Vladimir Vapnik et Alex Chervonenkis [26]. La première description de l’implantation d’un
modèle pouvant être assimilé à un SVM est apparue dans la traduction en Anglais, en 1982, de
l’ouvrage de Vapnik «Estimation of Dependences Based on Empirical Data» [27] (édité
initialement en russe en 1979).
73
Le modèle initial à marge maximale a connu des extensions importantes en 1992, qui ont formées
le modèle final par l’utilisation de l’astuce du noyau ( « kernel trick ») d’Aizeman ,proposé par
Boser, Guyon & Vapnik [28], et présenté dans un article à la conférence COLT 92. Finalement,
les SVM sous leur forme actuelle ont été introduits en 1995 par V.Vapnik & C.Cortes après
l’introduction du «soft margin». Les SVM peuvent être utilisés pour résoudre des problèmes de
discrimination, c’est-à-dire décider à quelle classe appartient un échantillon, ou de régression,
c’est-à-dire prédire la valeur numérique d’une variable; on parle alors de SVR.
De manière spécifique les SVM permettent d’obtenir un séparateur à marge maximale, une
frontière de décision avec la plus grande distance possible entre les points d’apprentissage. Les
SVM créent des hyperplans (séparateurs linéaires), et sont aussi capables de projeter les données
dans un espace de dimension plus grande en utilisant l’astuce du noyau. Ci-dessous les
principales caractéristiques des SVM :
– w vecteur de poids;
– x vecteur d’entrée;
Le but est donc de chercher l’hyperplan ou la droite séparatrice à marge maximale. Afin d’obtenir
l’hyperplan optimisé tout en utilisant l’astuce du noyau, on remplace W par la valeur optimale
W* :
74
Avec :
Par la suite il suffit de remplacer 𝑥 𝑇 𝑥𝑗 par 𝑓(𝑥𝑖 )𝑇 𝑓(𝑥𝑗 ). Cela permet d’obtenir un noyau
optimal 𝐾(𝑥𝑖 , 𝑥𝑗 ).
La régression logistique se définit comme étant une technique permettant d’ajuster une surface de
régression à des données lorsque la variable dépendante est dichotomique. Cette technique est
utilisée pour des études ayant pour but de vérifier si des variables indépendantes peuvent prédire
une variable dépendante dichotomique. Contrairement à la régression multiple et l’analyse
discriminante, cette technique n’exige pas une distribution normale des prédicteurs, ni
l’homogénéité des variances. Différents types de régression logistique existent, possédant chacun
leur procédé statistique et conduisant à l’élaboration de différents modèles théoriques.
L’objectif dans notre cas est la potentialité d’appartenance à une des trois classes de risque, soit
une classe <<k>>. Nous allons donc exposer en détails le modèle multinomial :
Avec :
La modélisation repose sur les rapports de potentialités en prenant une modalité comme référence
et en exprimant LOGIT (fonction de linéarisation) par rapport à cette dernière. La potentialité
d’appartenance à la k-éme catégorie est déduite des autres :
𝐾−1 (8)
𝜋𝐾 (𝜔) = 1 − ∑ 𝜋𝑘 (𝜔)
𝑘=1
𝜋𝑘 (𝜔) (9)
𝐿𝑂𝐺𝐼𝑇𝑘 (𝜔) = ln[ ] = 𝑎0,𝑘 + 𝑎1,𝑘 𝑋1 (𝜔) + ⋯ + 𝑎𝐽,𝑘 𝑋𝐽 (𝜔)
𝜋𝐾 (𝜔)
Avec :
exp𝐿𝑂𝐺𝐼𝑇𝑘(𝜔) (10)
𝜋𝑘 (𝜔) =
1 + ∑𝐾−1
𝑘=1 exp
𝐿𝑂𝐺𝐼𝑇𝑘 (𝜔)
76
C’est exactement ce que nous désirons achever à travers l’apprentissage supervisé, sur notre base
de score de risque.
Dans la partie précédente, nous avons détaillé les deux algorithmes que nous allons comparer : la
régression logistique et les SVM. Dans cette partie, nous allons détailler la mise en œuvre
pratique de cette comparaison.
Dans le domaine de l’apprentissage automatisé, un des points cruciaux est d’avoir un jeu de
données réaliste ou suffisamment réaliste afin de pouvoir entrainer correctement le modèle choisi.
Or, notre projet s’appuyant sur ITREM, il n’existe pas encore de jeu de données assez
volumineux adapté à ce problème.
Pour remédier à cela, nous avons décidé de collecter un certain nombre de vulnérabilités (500),
de spécifier les différentes variables d’entrées présentées ci-dessous et enfin de les étiqueter
suivant l’échelle HML (high, medium, low). Étant donné notre expérience professionnelle, nous
pouvons considérer que les données ont été étiquetées par un expert, ce qui se fait en pratique en
intelligence artificielle. En effet, à l’heure actuelle, la seule façon de déterminer le niveau de
risque d’une vulnérabilité est de demander à un expert en sécurité informatique qui, selon son
expérience, la classifiera dans telle ou telle catégorie.
Le travail de labélisation étant effectué, nous obtenons un échantillon de 500 vulnérabilités. Voici
un extrait de notre fichier de données :
V1,3,2,5,2,3,5,4,6,1,2,1,1,2,6,0,Medium
V2,1,2,5,2,5,8,5,2,1,2,1,1,2,8,0,High
V3,5,7,9,2,1,8,5,2,8,2,8,6,8,8,0,High
V4,3,2,5,4,1,8,1,4,1,2,7,6,2,5,0,Medium
5.4.2 Implantation
L’implantation de nos deux modèles a été réalisée en Python3 à l’aide des bibliothèques LibSVM
et Scikit-l learn.
LibSVM [29] est une librairie externe, développée en C++, de la National Taiwan University et
qui propose de nombreuses interfaces : Python, Matlab, Weka, etc. C’est une des implantations
des SVM les plus performantes à l’heure actuelle et c’est donc pour cela qu’elle est très répandue.
Scikit-learn est une librairie Python qui propose un nombre important d’algorithmes
d’apprentissages, qu’ils soient de classification, de régression, de mise en grappe (« clustering »)
ou encore de réduction de dimension. Nous avons donc choisi de l’utiliser dans la régression
logistique en raison notamment de l’importante documentation qui est proposée sur le site
internet de Scikit [30]. Enfin, cette librairie semble réputée puisqu’elle est financée par Google et
l’INRIA et utilisée par Spotify ou encore Evernote.
Dans un premier temps, nous avons transformé nos données CSV en deux listes pythons : une
pour les entrées et une pour les labels HML. Ces derniers ont été convertis en valeur numérique
(1, 2, 3), car l’implantation de la régression logistique utilisée ne permet pas l’utilisation de label
sous forme de texte.
L’entrainement et le test du SVM sont présentés dans le code ci-dessous, où sont définis les
labels et les variables d’entrées. On notera que nous avons choisi d’entrainer le modèle sur deux
tiers des données et de la valider sur le tiers restant. Ainsi la variable train est égale à 350.
#Entrainement du svm
prob = svm_problem(y[:train],x[:train])
param = svm_parameter(« -s 0 — t 3 — b 1')
#C-SVM et kernel polynomial
78
#Validation
p_label, p_acc, p_val = svm_predict(y[train:], x[train:], m)
#Entrainement
model = LogisticRegression(C=3, penalty='l1', tol=1e-6)
model.fit(x[:train],y[:train])
#Validation
print("LogisticRegressionCV Score : "+str(model.score(x[train:],y[train:])))
5.5 Résultats
5.5.1 Score
Dans la figure 5-2 Comparaison des scores, est représenté le score de nos deux algorithmes :
Régression logistique et SVM. À titre indicatif, nous avons aussi inséré l’algorithme Decision
Tree dans notre comparaison. On remarque que les SVM sont donc plus performants de 5 %
comparé aux deux autres méthodes. Cela s’explique en partie par le fait que les SVM sont très
robustes, car de par leur construction, l’hyperplan séparateur a une marche maximale par rapport
aux vecteurs de support.
En réalité, les scores présentés dans la section précédente sont ceux qui ont été obtenus après la
phase d’affinage des paramètres. En effet, dans tous les modèles de Machine Learning, il faut
adapter les paramètres à l’ensemble de validation, à défaut de celui d’entrainement, afin d’avoir
de meilleurs résultats sur l’ensemble de tests. Il s’avère que dans notre cas, l’affinage sur le
modèle d’entrainement permet de meilleurs résultats sur l’ensemble de validation, étant donné
que nous n’avions pas assez de données pour avoir aussi un ensemble de tests.
Dans le cas de la régression logistique, les deux paramètres importants sont la norme utilisée, ici
L1 ou L2, et la valeur de C, qui intervient dans la fonction de minimisation. Nous avons calculé
les scores pour des valeurs de C de 1 à 10 avec une norme L1 ou une norme L2. Il s’avère que
l’augmentation sur le score d’entrainement se répercute bien sur le score de validation. Les
résultats sur l’ensemble de validation sont visibles à travers la figure 5-3.
On y observe que mis à part le point (L2, 𝐶 = 1), les autres points sont vraiment très proches.
Ainsi la norme et le paramètre C n’ont pas une grande influence sur le résultat final,
généralement pas plus de deux points sur une échelle de cent. Néanmoins, nous avons choisi le
80
Dans le cas du SVM, le principal paramètre est le choix du noyau. En effet, lorsque les données
ne sont pas linéairement séparables, il faut augmenter la dimension de l’espace des données afin
de trouver un bon hyperplan séparateur. Généralement, dans la plupart des librairies et logiciels
de datamining, quatre noyaux sont proposés par défaut : Linéaire, Polynomial, Radial Basis
function1 et Sigmoid2. Les résultats sont présentés dans la figure 5-4. Dans le cas de ce problème,
c’est donc le noyau polynomial qui est le plus adapté puisqu’il permet d’avoir près de 80% de
résultats positifs contre à peine 60% pour le noyau sigmoïde.
1
Fonction pour laquelle ∀𝑥 ∈ 𝐷, 𝜙(𝑥) = 𝜙(∥ 𝑥 ∥)
2 1
Fonction définie telle que ∀𝑥 ∈ 𝐷, 𝑓(𝑥) =
1+𝑒 −𝜆𝑥
81
On notera qu’ils sont ici très faibles, car nous avons un nombre très limité de données, soit trois
cents.
Ainsi, on retrouve l’inverse de la hiérarchie des scores. L’algorithme donnant les meilleurs
résultats, SVM, est aussi le plus lent. Trois ordres de grandeur séparent l’algorithme SVM de
l’algorithme Decision Tree. Cependant, même dans le cas de plusieurs milliers de données, le
temps d’exécution du SVM devrait rester raisonnable.
82
Dans le cas d’un système assez sensible, classifiant des vulnérabilités, et sachant que
l’apprentissage n’est effectué qu’une fois, avant la livraison finale du logiciel de classification, il
ne nous paraît pas pertinent de considérer cette mesure de façon très importante.
5.6 Discussion
D’une part, le but premier de cet outil d’aide à la décision était de montrer qu’il est possible de
remplacer une tache particulière d’un expert en sécurité par un algorithme d’apprentissage
machine supervisé, en ce qui a trait à l’évaluation sur une échelle de risque des vulnérabilités. Les
résultats que nous avons obtenus ne sont, au premier abord, pas satisfaisants afin de remplir
pleinement ce but. En effet, nous avons obtenu au mieux 78% de bons résultats. Cela peut
paraître correct, mais, quand il s’agit d’évaluer un risque pour une entreprise qui se chiffre
ensuite en un coût, il n’est pas possible d’accepter une telle marge d’erreur.
Afin de remédier à cela, nous avons décidé d’utiliser l’algorithme Support Vector Machine en
mode probabiliste. Ainsi, la sortie n’est plus un choix dans l’ensemble des sorties possibles, mais
la potentialité correspondante à tel ou tel choix. Ainsi, une sortie pourrait être 80% High, 15%
Medium et 5% Low. Dans ce cas, le non-expert utilisant l’algorithme sélectionnera sans trop de
difficultés le choix High. En revanche, si la sortie est 40% High, 40% Medium et 20% Low,
l’utilisateur saura que la sortie n’est pas certaine et il pourra dans ce cas aller se renseigner auprès
d’un expert lorsque cela se produit.
Ainsi, si cet algorithme n’est pas capable de remplacer entièrement un expert, il est un bon aide à
la décision et réduira l’importance d’avoir un expert dédié à cette tâche. Ce dernier interviendra
toujours en cas de besoin, mais pourra le reste du temps se consacrer à des tâches plus difficiles.
D’autre part, nous avons réalisé l’apprentissage sur un nombre très restreint d’échantillons, à
savoir 500. En effet, il est très long d’annoter chaque vulnérabilité, ce qui justifie d’autant plus
l’usage de l’intelligence artificielle. En outre, nous avons exploré seulement deux (voire trois)
83
algorithmes de régression, même si les SVM sont actuellement un des algorithmes de régression
les plus performants.
84
FINTRADE est une entreprise de gestion de patrimoine canadienne ayant plus de 1000 employés.
Elle dispose de plusieurs actifs critiques dont des données bancaires, des brevets, des algorithmes
d’ordres boursiers automatisés ainsi que des données relatives à ses employés.
Les ressources de FINTRADE, spécialisées en sécurité de l’information, avaient fait part de leur
incapacité à interpréter et évaluer les risques découlant des exercices de tests d’intrusions. Ces
tests, ciblant la totalité de l’environnement numérique de l’entreprise, avaient été effectués
plusieurs mois auparavant et avaient généré des rapports très volumineux en termes de
vulnérabilités. La mission était donc de fournir à FINTRADE, par le biais d’un mandat de
consultation, une orientation et une prise de positionnement quant au traitement des vulnérabilités
et risques associés.
Avec la méthodologie ITREM, nous croyons que les bases d’attaque et d’exploit peuvent être
utilisées comme une source d’identification d’une grande partie des failles de sécurité. Ainsi, nous
85
avons commencé à partir de cette source, et nous y avons ajouté les résultats des tests d’intrusion
afin d’articuler notre processus méthodologique. Pour rappel, l’environnement numérique de
FINTRADE a été soumis à plusieurs tests d’intrusion et ces résultats ont permis de servir d’intrants,
comme prévu par le processus d’identification des risques.
Cette section décrit la portée des activités de tests d’intrusion. L’évaluation des risques fut fondée
sur les rapports générés par les différentes activités de tests d’intrusion ci-dessous. Nous avons
donc défini notre modèle d’évaluation des risques en nous appuyant sur les données factuelles
obtenues grâce à chaque activité de tests. Chaque vulnérabilité, dans les rapports de tests
d’intrusion, fut considérée comme un risque d’atteinte à la confidentialité, disponibilité et intégrité
des données de FINTRADE, comportant le niveau approprié d’impact et de potentialité. Suite à
une entente commune avec le client, nous avons considéré que cette approche technique ainsi que
la portée de cette mission devait faire l’objet d’un appareillement normatif.
À cet effet, nous avons déterminé quelles étaient les obligations en termes de normes et de
références normatives propres à la sécurité de l’information. La norme choisie fut la NIST SP800-
30 « Guide for conducting Risk Assessment » [33], avec la sous-catégorie de la norme : Tiers 3,
correspondant à un risque tactique (technique) ; les risques tactiques sont le dernier niveau de
détails observés par la norme du NIST.
FINTRADE a choisi cette approche d’évaluation des risques dans le but de structurer les résultats
des tests d’intrusion et les risques relatifs. Un des objectifs fut aussi d’établir les priorités de
traitement et d’obtenir certains indicateurs de sécurité. Il était essentiel que la méthode fournisse
des mesures de contrôle adaptatives afin de suivre les pratiques de gestion du risque déjà mises en
œuvre par FINTRADE. Le référentiel normatif choisi conjointement par les équipes de
87
FINTRADE et par OKIOK, est le NIST SP800-30 [33] pour l’évaluation des risques et contrôles,
et le NIST SP800-53 pour l’identification.
Pour intégrer le processus d’évaluation des risques dans l’ensemble de l’organisation et afin de
traiter plus efficacement les préoccupations d’affaires, une approche à trois niveaux fut envisagée
pour la réponse aux risques:
Niveau 1 — Organisationnel;
Le processus d’évaluation des risques a été effectué sur un seul niveau (niveau 3) avec l’objectif
global d’amélioration continue pour les activités connexes reliées à la gestion du risque dans
l’environnement. De plus, cela a permis de conserver une efficacité inter et intra-niveau en ce qui
a trait à la communication entre toutes les parties prenantes ayant un intérêt commun à la réussite
de l’entreprise et au succès de la mission organisationnelle. Grâce à cet exercice de gestion, nous
nous sommes concentrés principalement sur le niveau 3 (niveau des systèmes d’information), car
nous nous sommes appuyées sur les intrants et parties techniques liés aux tests d’intrusion.
Les scénarios de risque liés à des violations de données ont été discutés et définis avec FINTRADE
pour faciliter la classification des risques. La catégorie ici présentée permet de faciliter la
classification des risques techniques tout en faisant référence à notre cadre normatif (NIST SP800-
53 et SP800-30)
[0603] Un support portable contenant des données sensibles est perdu ou divulgué.
[0604] Perte de données sensibles ou divulgation par attaque logique.
[0605] Les supports de sauvegarde sont perdus ou les sauvegardes ne sont pas contrôlées
régulièrement.
[0606] L’information sensible est accidentellement divulguée en raison des directives de
manipulation n’ayant pas été suivies.
[0607] Les données sont modifiées de manière intentionnelle.
88
[0608] Les informations sensibles sont communiquées par courrier électronique ou les
médias sociaux.
[0609] L’information sensible est découverte en raison de l’inefficacité
conservant/archivant/éliminant de l’information.
Ces catégories nous ont aidées à constituer le processus de classification des vulnérabilités.
Indicateurs de sécurité
89
Ils furent définis en tenant compte des contrôles présents dans l’environnement actuel, ce que nous
désignons avec l’acronyme A/CA. Ils ont été une réflexion des vulnérabilités et des résultats de
l’analyse des risques, correspondant à ceux évalués tout au long des activités de tests d’intrusion.
Ils furent redéfinis et évalués selon les contrôles de traitement les plus adaptés et recommandés,
situation désignée par A/CR, et ont été basées sur une approche d’atténuation des risques en
appliquant des contrôles connexes et/ou contre-mesures. Plusieurs rencontres préalables avec
l’équipe d’évaluation des risques de FINTRADE ont dû être organisées pour évaluer les niveaux
se rapportant aux traitements des risques. Suite à un commun accord sur les traitements effectifs,
nous avons pu comparer et évaluer le niveau résiduel de l’ensemble des risques identifiés au départ.
6.4.2.1.1 Impact
Afin de pouvoir évaluer le niveau de sévérité des vulnérabilités identifiées, nous avons fait
référence au système d’évaluation d’impacts des vulnérabilités Common Vulnerability Scoring
System version 2 (CVSSv2). Ce système d’évaluation a permis de rapidement évaluer les
vulnérabilités identifiées pour prioriser la mise en place de correctifs.
mesures de base;
mesures temporelles;
mesures environnementales.
De plus, les tests d’intrusion ayant été évalués à travers CVSS, la mesure d’impact de VANSS n’a
pas été utilisée lors de l’exercice de quantification d’impact.
Le score CVSS de base est une valeur sans unité entre 0 et 10. Afin de pouvoir adapter les scores
CVSS à l’échelle d’impact du NIST, nous avons suivi l’approche du NIST sur la classification en
classant les scores d’impact sur cinq sous-ensembles :
Score Impact
0 — 0,5 Imperceptible
0,5 – 2 Faible
2 — 6,9 Modéré
7—9 Élevé
9 — 10 Très élevé
91
6.4.2.1.2 Potentialité
Afin d’évaluer le niveau de potentialité associé à des vulnérabilités identifiées, nous avons employé
la méthode VANSS. Bien que VANSS soit composé de deux mesures, impact et potentialité, nous
avons utilisé uniquement celle liée à la potentialité. Comme CVSS a été utilisé pour analyser
l’impact pendant les tests de pénétration, nous avons évalué la potentialité grâce à la mesure de
VANSS de façon à apporter les niveaux appropriés.
La mesure de potentialité fut composée par deux facteurs et six indices, comme indiqué ci-
dessous et décrit au chapitre 4 (Section 4.1.4.2) :
Ces indices sont composés de plusieurs paliers qui constituent la valeur quantitative.
Tel que décrit au chapitre 4, VANSS utilise à la base une échelle numérique entre 0 et 10 pour
évaluer la potentialité de matérialisation d’une menace. Afin de pouvoir adapter les scores de
VANSS à l’échelle de potentialité du NIST, tel qu’exigé par le client, nous avons suivi l’approche
du NIST sur la classification en classant les scores de potentialité sur cinq (5) sous-ensemble :
Score Potentialité
0 — 0,5 Imperceptible
92
0,5 – 2 Faible
2 — 6,9 Modérée
7—9 Élevée
9 — 10 Très élevée
L’une des valeurs ajoutées de VANSS repose dans le facteur de pondération qui peut être attribué
à n’importe quel indice. Cela a permis une priorisation contextuelle basée sur la quantification des
scores de potentialité propres aux résultats des activités de tests d’intrusion de FINTRADE.
VANSS introduit la notion d’Ensemble de Vulnérabilité (EV) de façon à fournir un plus haut
niveau de classification. L’objectif principal fut de pouvoir classer chacune des vulnérabilités dans
un ensemble. Chaque ensemble est simplement une référence à un contrôle de sécurité. De cette
façon, les ensembles de vulnérabilités, relatifs à FINTRADE, ont pu être traités grâce à des
contrôles communs et ainsi permettre une convergence plus rapide et optimisée vers les cibles de
maturité, en matière de sécurité.
Dans cette section sont identifiés tous les ensembles de vulnérabilités recensés dans les activités
d’intrusions/tests de système.
EV 1 Configuration
EV 2 Gestion de l’authentification
EV 3 Mesures cryptographiques
EV 4 Intrusion physique
EV 6 Erreurs de gestion
EV 7 Fonctionnalité de sécurité
La figure suivante, 6-2, est utilisée pour répertorier les ensembles de vulnérabilités ainsi que les
mesures de potentialité et d’impact par vulnérabilité identifiée. La majorité des valeurs qualitatives
et quantitatives ont été classées comme modérées en raison de la norme NIST SP800-R30
concernant l’échelle de classification. La matrice de représentation du risque, en suivant l’échelle
citée plus haut, comporte un segment de classification alloué pour le niveau modéré situé entre 2
et 6,9 sur 10 pour chaque mesure, ce qui a eu pour effet de couvrir une grande partie de la matrice
de risque. Cela pourrait porter à confusion quant à l’attribution du qualificatif de risque, cependant
après une revue détaillée du fonctionnement de la matrice, FINTRADE fut d’accord pour utiliser
le système de score tel quel.
Matrice de risque
10
7
POTENTIALITÉ
0
0.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00 8.00 9.00 10.00
IMPACT
Les symboles présents sur la matrice (I, F, M, ...) sont simplement les premières lettres des niveaux
de risque exposés dans la partie 6.4.3.
95
Ci-dessous le tableau permettant de résumer les scores de potentialité et d’impact pour chacune des
vulnérabilités identifiées dans l’environnement de FINTRADE.
T1 Escalade de
privilège à partir
d’un poste de
travail d’un
employé typique
Divulgation
T1.1 EV 1 Modérée Élevé
d’information de
type GPP pour les
mots de passe
administratifs
Protocoles activés
T1.2 EV 1 Modérée Modéré
(LLMNR &
NBTNS)
Signature SMB
T1.3 EV 1 Modérée Modéré
non obligatoire
Mots de passe
T1.4 EV 2 Modérée Modéré
faibles
96
Les paramètres de
T1.5 EV 1 Modérée Imperceptible
proxy par défaut
n’utilisant pas
WPAD
T2 Chiffrement du
poste de travail
Attaque DMA
T2.1 EV 3 Modérée Élevé
T3 Test Wi-Fi
Absence
T3.1 EV 1 Modérée Modéré
d’isolation entre
les utilisateurs sur
le réseau Wi-Fi
invité.
Détournement de
T3.2 EV 7 Modérée Modéré
session utilisateur
sur FINTRADE
visiteur
L’absence de
T3.3 EV 7 Modérée Modéré
filtrage entre les
VLAN.
T4 Test d’ingénierie
sociale
Dispersion de clés
T4.1 EV 4 Modérée Modéré
USB
97
T5 Test de sécurité
physique
T6 Sécurité du
processus de
virtualisation
Certaines données
T6.1 EV 6 Modérée Modéré
sont transférées
entre la pré-
production et la
production
Compte d’ancien
T6.2 EV 5 Modérée Modéré
utilisateur non
démissionné
T7 Sécurité du
processus de
sauvegarde
Les sauvegardes ne EV 8
T7.2 Modérée Modéré
peuvent pas être
rétablies à temps
(RTO)
T8 Tests de sécurité
réseau
L’authentification
T8.6 EV 1 Modérée Modéré
SMB de type
session NULL
SSLv3 (POODLE)
T8.7 EV 3 Modérée Modéré
Multiples
T8.8 EV 3 Modérée Faible
vulnérabilités
relatives à la
configuration SSH
Ci-dessous le tableau de classification permettant d’appareiller les risques et de les évaluer selon
un référentiel standardisé.
100
Potentialité Impact
Très élevé Très élevé Très élevé Très élevé Élevé Faible
Les tableaux exposés pour la classification sont tirés du NIST et plus particulièrement du standard
SP800-30.
Voici un extrait de la classification des vulnérabilités selon les échelles et matrice de risque :
T1 Escalade de
privilège à partir
d’un poste de
travail d’un
employé typique
Le tableau suivant répertorie les niveaux de risques en fonction des ensembles de vulnérabilités
ayant été attribués suite aux activités de tests d’intrusion (Avec Contrôles Actuels). Par conséquent,
ce tableau reflète les risques en se basant sur les contrôles de sécurité actuels.
EV 1 Configuration Modéré
Ce tableau reflète la matrice d’ensemble de vulnérabilités évaluées avec contrôles actuels, qui est
présentée ci-dessous :
103
Les EV sont identifiés dans la figure par l’acronyme anglais VS (« Vulnerability Set »).
Le niveau approprié pour chaque ensemble de vulnérabilités fut une combinaison de la plus haute
valeur relative à l’impact potentiel de l’ensemble de la vulnérabilité inclus respectivement dans ces
jeux de vulnérabilités.
Pour rappel, l’attribution qualitative d’une classe de risque (EV) a été établie en fonction du :
- Facteur d’impact pour un ensemble de vulnérabilités donné étant égal à la valeur moyenne
des facteurs d’impact de chaque vulnérabilité composant l’ensemble.
104
Le tableau suivant présente les risques résiduels quantifiés (Avec Contrôles Recommandés) suite
à l’application des contre-mesures découlant des contrôles recommandés (A/CR).
Les niveaux de risques résiduels furent évalués selon l’hypothèse que chaque ensemble de
vulnérabilités comportait un risque résiduel de par l’implantation du contrôle et des contre-mesures
découlant des recommandations du rapport de tests d’intrusion.
Suite aux calculs de réduction des vulnérabilités, les ensembles de vulnérabilités furent réévalués
(selon la table RR-1) quantitativement et qualitativement de façon à obtenir les niveaux de risques
associés.
EV 1 Configuration Faible
Les EV sont identifiés dans la figure par l’acronyme anglais VS (« Vulnerability Set »).
Ci-dessous, le tableau permet de recenser les ensembles de vulnérabilités selon les deux niveaux
de risque présentés précédemment, en ajoutant la notion de priorisation et de référence relative aux
contrôles. Les niveaux de priorité ont été établis selon deux facteurs :
- Le différentiel obtenu entre les niveaux A/CA et A/CR obtenus lors de l’étape de traitement.
Les contrôles identifiés et tirés du référentiel choisi (NIST SP800), ont permis d’indiquer quels
sont les contrôles et contre-mesures à implémenter pour atteindre les cibles de risque résiduel.
106
AC-18(1), SC-
EV 7 Fonctionnalité de Modéré Faible P2
7
sécurité
EV 1 Configuration P1
EV 2 Gestion de l’authentification P2
EV 3 Mesures cryptographiques P3
EV 4 Intrusion physique P3
EV 6 Erreurs de gestion P1
EV 7 Fonctionnalité de sécurité P2
Les ensembles de vulnérabilités correspondant au tiers P1 ont dû obligatoirement être traités le plus
rapidement possible avec les contrôles et contre-mesures appropriés. Les contrôles, comme
identifiés dans le tableau, ont permis d’induire une réduction de risque majeure et furent donc
qualifiés de hautement effectifs. En référence à la matrice de classification, EV 6 est caractérisé
par une réduction de risque passant d’Élevé à Faible. Cela implique donc une réduction de deux
niveaux sur l’échelle d’évaluation qualitative préconisée par le NIST.
pu le classifier comme étant un des ensembles de haute priorité de traitement. EV 1 est aussi
caractérisé par une réduction de risque passant de Modéré à Faible. De ce fait, le processus de
traitement immédiat des risques sur ces ensembles a permis d’atteindre une réduction représentant
48% du total de vulnérabilités identifiées.
Comme il est possible de le constater, la majorité des risques furent représentés à travers la
catégorie 0604 concernant la divulgation d’information. Les contrôles concernant cette catégorie
sont considérés comme effectifs grâce à leur action de réduction. Cette deuxième phase de
traitement se concentra sur l’implantation d’un programme de gestion des mises à jour et de gestion
des versions et configurations, de façon à mitiger les vulnérabilités contenues dans les ensembles
cités plus haut. Les efforts relatifs à la mise en place du programme furent considérés comme
faibles. La mitigation effectuée lors de cette phase aura permis une réduction des risques de 67 %
sur le total identifié.
Les EV 3 et 4 rassemblaient des risques dont le traitement nécessiterait des investissements lourds
ainsi qu’une formation avancée en sécurité de l’information pour les employés de l’entreprise
FINTRADE. Quand bien même les matrices de risque indiquent une décroissance d’impact et de
sévérité pour ces ensembles, suite aux mesures de traitement, les risques résiduels n’ont pas permis
d’obtenir une réduction suffisante pour être qualifiée de Faible. C’est donc pour cela que la
priorisation de ces ensembles est effectuée en dernier.
Figure 6-6 Diagramme circulaire exposant la répartition des vulnérabilités par activités
110
Ci-dessous sont exposés les indicateurs relatifs à l’exercice d’évaluation de risque. Ils ont permis
d’établir une base d’indicateurs axés sur la posture de sécurité de l’entreprise et de son
environnement numérique. L’amélioration continue fut donc initiée en prenant en compte les
valeurs suivantes pour établir un suivi régulier et efficace lors des prochains tests d’intrusion :
- Répartition totale
- Distribution de potentialité
- Distribution d’impact
- Distribution de risque
- Catégorie de perte de données.
La figure de répartition totale des risques permet d’apprécier la posture générale relative aux
risques quantifiés. La majorité de notre échantillonnage de risque A/CA est classée en catégorie
modérée avec une proportion de 86 %. Suite au traitement et implantation des contre-mesures,
l’évaluation des risques résiduels permet d’obtenir une proportion de 82 % des risques appartenant
à la catégorie faible.
111
Ci-dessous les valeurs de potentialité pour chacun des risques identifiés. La comparaison des
diagrammes A/CA et A/CR permet de montrer une diminution quant aux valeurs de potentialité.
112
5 4
4 3
3
2
2
1
1
0 0
T1.1T1.3T1.5T3.1T3.3T5.1T6.2T7.2T8.2T8.4T8.6T8.8 T1.1T1.3T1.5T3.1T3.3T5.1T6.2T7.2T8.2T8.4T8.6T8.8
Ci-dessous, les valeurs d’impact pour chacun des risques identifiés. En prenant en compte que la
majorité des risques évalués sont liés à des vulnérabilités logiques et facilement remédiables, la
réduction d’impact est beaucoup plus prononcée.
113
Figure 6-9 Comparaison entre les distributions d’impact avant et après traitement
8 8.3 8.3
7.3 7.2 7.4
6.9 6.8 6.8 6.8
6 6.4 6.3 6.3 6.3
5.8 5.6 5.9 5.8 5.6
5.2 5.2 5.2 5.2 5.3 5.1 4.8
4.8 4.8 4.8 4.8 4.4 4.4
4 4.3 4.3 4.1 4.3
3.8 3.8
3.3 3.3 3.3 3.3 3.3 3.3 3.2
2 1.8
0
T1.1 T1.2 T1.3 T1.4 T1.5 T2.1 T3.1 T3.2 T3.3 T4.1 T5.1 T6.1 T6.2 T7.1 T7.2 T8.1 T8.2 T8.3 T8.4 T8.5 T8.6 T8.7 T8.8
Potentialité Impact
Potentialité Impact
Le diagramme ci-dessous permet de refléter la répartition des scénarios énumérés et suggérés par
le département de sécurité de l’information de FINTRADE.
115
68%
[0608] Les informations sensibles sont
communiquées par courrier
électronique ou les médias sociaux.
[0608]
[0609] L'information sensible est
découverte en raison de l'inefficacité
conservant/archivage/élimination de
l'information. [0609]
Cette observation permet de constater que la majorité des risques appartient à la catégorie de
divulgation par attaque logique.
Dans cette section, nous présenterons les recommandations sous la forme d’une description globale
du contrôle de sécurité qui fut mis en œuvre de manière à répondre aux risques les plus élevés, et
identifiés dans l’environnement de FINTRADE. Nous avons identifié quatre (4) EV qui
représentent la zone à risque la plus élevée.
Priorité : P1
116
Description:
Trente-cinq pourcents (35%) des vulnérabilités identifiées sont liées à des problèmes de
configuration. Il a été fortement recommandé d’examiner la gestion de la configuration de sécurité
ainsi que les pratiques de durcissement des systèmes et les paramètres de configuration de la
sécurité. Une partie de la vulnérabilité découverte par les tests d’intrusion résulte d’une
configuration de sécurité erronée qui exposait les systèmes d’information de FINTRADE aux
attaquants. La première priorité a été déterminée en raison des deux niveaux d’écart de réduction
des risques, constatée grâce à la contre-mesure et aux contrôles applicables à cet EV. En outre,
l’atténuation de ces risques fut très efficace et facile à mettre en œuvre.
Priorité P3
Description:
Certaines des versions des technologies et protocoles utilisés dans le réseau interne avaient des
vulnérabilités qui auraient pu permettre à un attaquant expérimenté de briser la sécurité du canal
en exploitant des algorithmes cryptographiques désuets. Bien qu’il fût recommandé de mettre à
jour et corriger les systèmes concernés, il était également essentiel de les adapter et de tenir compte
des exigences de compatibilité dans l’environnement FINTRADE. Cela justifia le choix de placer
cet ensemble sur la troisième priorité aussi parce que le risque résiduel, avec les contrôles
recommandés, se situe toujours à un niveau modéré. Les risques associés doivent être
régulièrement examinés et contrôlés.
Priorité P3
Description:
Afin de protéger les informations internes et de limiter les actions défavorables d’intrus, il fut
recommandé de maintenir une session de formation régulière pour sensibiliser les employés à la
sécurité des informations et aux meilleures pratiques. En outre, il est important que les employés
117
signalent tout comportement inhabituel et se renseignent sur l’identité du personnel inconnu ou non
identifié. Cette EV fut catégorisée en troisième priorité parce qu’elle nécessiterait des contrôles
d’atténuation physique très coûteux de manière à être réduite à un niveau bas.
Priorité P1
Description:
La vulnérabilité concernée dans cette EV aurait pu avoir un impact important si des informations
étaient sur le point d’être divulguées ou interceptées. Cet ensemble de vulnérabilités concerne des
processus tels que la gestion des correctifs, les mises à jour et les mises à niveau des systèmes.
Pour faire face aux risques liés à cette partie, il fut essentiel d’améliorer la politique de contrôle
des changements en révisant et en actualisant régulièrement les systèmes d’information désuets.
En outre, ces systèmes ont dû être séparés de l’accès au réseau interne et régulièrement testés.
L’utilisateur interne ordinaire ne doit pas pouvoir accéder à ces serveurs. En conséquence, nous
avons décidé de donner la priorité de premier niveau à cette EV. Il fut fortement recommandé de
traiter et d’atténuer rapidement les risques associés.
Suite à la présentation des résultats de priorisation, les EV en question furent traités selon la priorité
énoncée dans le contexte. Le plan de priorisation fut présenté et approuvé dès la fin de la
présentation par la responsable du département de sécurité de l’information. Cette mesure visait à
implémenter le plus rapidement possible les traitements, de façon à présenter une réduction aux
auditeurs, présents pour un exercice d’audit externe.
L’évaluation des risques effectuée dans le cadre de cet exercice visait à fournir des données
tangibles concernant la découverte et l’analyse des vulnérabilités relatives à la sécurité de
l’information. Bien que nous ayons énuméré plusieurs activités d’examen de la sécurité (T6, T7),
nous n’avons pas évalué d’autres éléments de l’environnement numérique susceptibles d’avoir une
incidence sur la confidentialité, la disponibilité et l’intégrité des systèmes. Nous n’avons tenu
compte que des risques associés aux vulnérabilités identifiées dans les activités liées à la portée du
rapport de tests d’intrusion.
Lors du projet, FINTRADE et son département de sécurité ont été engagés dans de nombreuses
discussions avec OKIOK pour définir la portée des tests ainsi que celle de l’exercice d’évaluation
des risques.
La raison était principalement dû au fait que le département avait déjà une méthodologie
d’évaluation des risques. Cependant, cette dernière n’était en aucun cas calquée sur une approche
similaire à ITREM. De plus, la responsable du département avait des enjeux relatifs aux résultats
de l’évaluation, car ces derniers allaient confirmer certaines parties très à risque de l’environnement
numérique de FINTRADE. Il y’avait donc un enjeu de politique d’entreprise pour ne pas montrer
immédiatement les risques et privilégier un traitement prioritaire avant de présenter les résultats au
comité exécutif de l’entreprise. Un des points sortant de cette discussion fut la validation du plan
de traitement et l’application de ce dernier de façon immédiate pour pouvoir palier aux risques le
plus rapidement possible.
À cet effet nous avons axé leur réponse sur trois points principaux :
- La complexité du processus méthodologique
- L’efficacité de ce dernier
- L’applicabilité
La complexité du processus a pu être qualifiée de simple, tant et pour autant qu’un guide
méthodologique expliquait les étapes précises permettant de passer de l’identification des risques
au traitement de ces derniers. L’équipe de FINTRADE n’a pas eu de problème à reprendre certaines
parties de la méthodologie pour les appliquer et ajuster certains indices.
L’efficacité a été mesurée tant par les coûts monétaires engendrés par les projets de rehaussement
des contrôles de sécurité, permettant le traitement des risques, que par les estimés effectués par la
responsable de la sécurité de FINTRADE. Comme mentionné par cette dernière, pour le même
budget annuel alloué aux traitements des risques, nous avons pu traiter 4 initiatives de sécurité
additionnelles en comparaison à une année où les tests d’intrusions n’avaient pas été évalués et
priorisés. Cette augmentation dans la réalisation du nombre d’initiatives permet d’appuyer la
dimension d’efficacité propre à la méthodologie.
L’applicabilité fut très fluide, car nous avions effectué une adaptation au contexte d’affaires et au
cadre normatif. La responsable du département de sécurité ainsi que les membres de son équipe
auraient été très surpris et dépités si cette étape n’avait pas été prise en compte pour effectuer
l’évaluation.
Globalement, FINTRADE et son équipe ont été très satisfaits par la mise en place d’ITREM et des
résultats en découlant. L’entreprise a apprécié la valeur ajoutée découlant des dimensions
d’adaptabilité, de flexibilité, et de priorisation induite par l’application d’une méthodologie
d’évaluation des risques basée sur les tests d’intrusion. Cette étude de cas fut donc probante pour
le cas de FINRADE en particulier. Cependant, pour assurer une certaine stabilité du modèle
opérationnel de la méthodologie, il serait nécessaire de rassembler une cinquantaine d’études de
cas. Cela permettrait d’extraire les données de vulnérabilités selon certains segments d’affaires et
assurerait par ce biais une contre-validation du modèle de gestion des risques pour de futures
applications de la méthodologie. De plus, une base conséquente d’études de cas permettrait de
120
raffiner le degré d’attribution des facteurs de calcul de risque. La pondération des facteurs pourrait
aussi entrainer un biais d’analyse au cas où les poids venaient à être attribués sans guidage
particulier. Les travaux et développent futurs, notamment grâce à une base grandissante des études
de cas, s’orienteront vers un croisement des risques principaux identifiés et les contrôles de sécurité
à appliquer pour arriver à un traitement optimal du risque.
121
ITREM est une méthodologie permettant d’unifier le traitement des risques relatifs aux
vulnérabilités des systèmes d’information. Elle doit être perçue comme un effort de liaison entre
plusieurs processus d’entreprise, venant conforter l’aspect propre à la sécurité de l’information,
notamment les processus de découvertes de vulnérabilités à travers les tests d’intrusion,
l’évaluation de risques informatiques, et la sélection de contrôles de sécurité permettant de réduire
ces risques. De ce fait, elle permet d’achever l’unification des efforts de gestion et de conformité
technique et légale. Elle permet aussi d’apporter un aspect de priorisation aux scénarios de risque
traditionnels que l’on retrouvera en entreprise.
En contraste avec les méthodologies d’évaluation de risques traditionnelles qui se basent sur des
évaluations subjectives de potentialité et des impacts de scénarios génériques, déterminés par des
analystes de sécurité, ITREM se base sur les résultats objectifs des tests d’intrusion communément
utilisés dans la pratique professionnelle pour répertorier de réelles vulnérabilités sur les systèmes
informatiques. Une autre de ces caractéristiques est de pouvoir créer des indicateurs de gestion et
de priorisation en appliquant des contrôles de sécurité, tirés de plusieurs référentiels internationaux,
de façon à guider les équipes de sécurité de l’information à travers des recommandations
entièrement adaptées au contexte de l’entreprise. En effet, la majorité des méthodologies actuelles
n’offrent pas de priorisation des traitements suite à la catégorisation des risques évalués sur un
environnement donné. En plus de la dimension subjective qu’apportent souvent les évaluations
qualitatives par scénarios, les méthodologies de gestion des risques ne présentent que peu de
moyens pour influencer les facteurs d’impact et de potentialité selon une pondération adaptée au
contexte d’affaires.
À cet effet, nous avons adressé notre première question de recherche en indiquant comment prendre
en compte le contexte d’une vulnérabilité, afin de la catégoriser en termes de niveau de risque. Cet
aspect de la méthodologie ITREM est capturé dans le Processus d’appréciation du contexte (PAC).
comment ces résultats doivent être standardisés et traités de façon à être utiles aux étapes
subséquentes d’ITREM.
Afin d’augmenter la viabilité d’ITREM en termes d’efforts, nous avons développé le Vulnerability
Analysis Scoring System (VANSS) qui nous permet de systématiser la classification des
vulnérabilités. Nous avons construit un classificateur automatisé en employant des techniques
d’apprentissage machine, notamment la régression logistique et les Support Vector Machine
(SVM), qui nous ont permis d’atteindre des taux de précisions de près de 80%. Cela n’est pas
probant d’un point de vue scientifique, mais est quand même encourageant dans un contexte
d’affaires dans lequel la seule alternative actuelle est une classification subjective, arbitraire et
coûteuse par un expert analyste de sécurité.
Finalement, nous avons cherché à évaluer l’efficacité et la viabilité d’ITREM de façon globale en
adressant notre quatrième question de recherche à travers une étude de cas correspondant à
l’utilisation d’ITREM dans un cas réel en entreprise, notamment dans l’institution que nous avons
dénommée FINTRADE, afin de protéger son identité. Plus concrètement, nous avons mis de
l’avant la possibilité d’obtenir un niveau de précision accru quant à l’identification, l’analyse,
l’évaluation, et la prise de décision par rapport à l’évaluation du risque et la sélection des contrôles
de sécurité à déployer pour protéger les systèmes informatiques. Il n’est pas possible, avec le niveau
de maturité actuel de la méthodologie, de pouvoir conclure sur l’aspect décisionnel et son
amélioration. Il faudrait pour cela bénéficier d’une étude comparative avec plusieurs dizaines
d’entreprises participantes sur lesquelles ITREM aurait été déployée. Ces dernières seraient
comparées en prenant en compte une gestion de la sécurité informatique avec et sans ITREM, suite
à des tests d’intrusions. Cela permettrait d’obtenir des données précises sur l’avantage décisionnel
lié à la méthodologie.
Néanmoins, l’étude de cas a permis de prouver qu’ITREM se différencie grâce à son caractère
original et selon les propriétés suivantes :
- Basée sur des facteurs de risque plus précis que ceux employés par CVSS;
123
- Favorise le traitement des risques à travers une optique de réduction de la posture de risque
et des recommandations précises et priorisées.
Une des valeurs ajoutées de la méthodologie se traduit par l’agrégation des vulnérabilités et des
risques associés, en groupe ou catégorie (EV). Cette catégorisation reprenant les caractéristiques
communes des vulnérabilités, elle permet d’associer des contrôles de traitement de façon à fournir
des mesures palliatives agissant de concert pour éliminer tout risque associé à l’ensemble de
vulnérabilité. Le processus de regroupement n’est que très peu implémenté actuellement en
entreprise, et gagnerait à être plus utilisé de façon à raccourcir les temps de traitement alloués aux
plans de correction concernant les vulnérabilités.
Les tests d’intrusion sont donc des exercices permettant d’obtenir des informations extrêmement
précises et bénéfiques pour une entreprise soucieuse de la qualité de son approche en termes de
prévention face aux menaces et attaques informatiques. Le processus de tests d’intrusion ne doit
cependant pas être limité à de simples balayages automatisés permettant de déceler les
vulnérabilités publiquement annoncées. Il doit être effectué de manière très personnalisée, en
prenant majoritairement en compte les aspects technologiques de l’environnement client et
l’exposition potentielle des actifs informationnels à travers les solutions et services inclus dans la
portée des tests.
Une des limitations propres à la méthodologie est d’ailleurs relative à la portée. Il n’est pas possible,
sauf pour une entreprise disposant de moyens et de temps suffisants, d’inclure la portée de
l’entreprise englobant la totalité de son environnement numérique et technologique. Il est
nécessaire de procéder progressivement et par étapes, en testant différentes parties de l’EC. Ce
morcellement permet à l’équipe de gestion des risques de focaliser son action sur le dernier sous-
ensemble de recommandations prioritaires et ayant le plus d’effet de réduction. Par la suite,
l’équipe de tests d’intrusion changera la portée des tests en privilégiant une autre partie de
l’environnement numérique de l’entreprise. Ce changement sera conditionné par le processus
124
d’amélioration continue qui visera à diversifier les tests effectués en ciblant d’autres types d’actifs
sensibles et n’ayant pas été testés auparavant.
De plus, pour continuer dans la lignée des limitations, il est important de citer le biais d’évaluation
que pourrait entrainer cette quantification des risques. En effet, ITREM repose en partie sur un
moteur de calcul quantitatif et pondéré. Il pourrait s’avérer que les sommes pondérées, dans certains
cas spéciaux, engendrent une aberration en termes d’évaluation quantitative. Cependant, nous
pouvons pallier en partie ce genre d’aberration de calcul en prodiguant des comparatifs et
vérifications avec les résultats cumulés de toutes les missions de tests d’intrusions (BDOV).
Il est envisageable d’optimiser les dépenses en termes de sécurité en songeant à une impartition de
ces données et actifs numériques vers des fournisseurs d’infonuagique qui assureront eux-mêmes
la sécurité des données corporatives. Mais n’est-ce pas là d’autres types de considération de risque
et de postures de sécurité à prendre en compte, sachant que les infrastructures où reposent les
données n’appartiennent plus au propriétaire légitime de ces dernières ?
De façon à pouvoir faire évoluer cette méthodologie, il sera nécessaire de se concentrer sur deux
aspects technologiques majeurs. Le premier sera la création d’une plateforme applicative
permettant de pouvoir représenter la logique de la méthodologie et de l’intégrer dans des entreprises
sans avoir besoin d’un expert. Cela permettrait d’en faire réellement un outil de référence contenant
un registre des risques identifiés et évalués, des indicateurs de posture de sécurité, des comparatifs
d’années en années ainsi que d’autres fonctionnalités.
La création de cette méthodologie permet de repenser une partie d’un système de gestion des
risques dans le domaine extrêmement vaste de la gestion des informations. Nous sommes dans une
ère où la détermination de la criticité des actifs est nécessaire et va de pair avec une protection
adaptée. Ce portrait utopique de la protection optimale de l’information ne pourra jamais être
entièrement dressé, car les environnements numériques évoluent et changent très vite. La
gouvernance, la cohésion et la réactivité des équipes de sécurité peuvent être améliorées et tendre
vers des critères de maturités plus élevés en ce qui a trait à leurs pratiques et contrôles de sécurité.
Une réflexion postérieure, relative à l’intelligence artificielle, orienterait les futurs travaux vers la
création d’un logiciel automatisé permettant d’effectuer les tests d’intrusions, d’analyser les
vulnérabilités selon les critères du segment d’affaires de la criticité des données, de les classer selon
les EV, et de produire les plans de traitement.
126
LISTE DE RÉFÉRENCES
[1] Agence nationale de la sécurité des systèmes d'information (ANSSI), «Guides de bonnes
pratiques,» [En ligne]. Available: http://www.ssi.gouv.fr/fr/guides-et-bonnes-
pratiques/recommandations-et-guides/.
[3] R. Baloch, Ethical Hacking and Penetration Testing Guide, Boca Raton: CRC Press, 2014.
[4] A. Jones, Risk management for computer security: protecting your network and information
assets, Amsterdam: Elsevier Butterworth Heinemann, 2005.
[6] A. Fielder et C. Hankin, Decision support approaches for cyber security investment, London:
Elsevier, 2016.
[7] «Penetration Testing Execution Standard (PTES),» [En ligne]. Available: www.pentest-
standard.org.
[8] D. Maynor, Metasploit toolkit for penetration testing, Burlington: Syngress, 2007.
[9] Open Web Application Security Project (OWASP), [En ligne]. Available:
http://www.owasp.org.
[10] Cyberworld Awareness and Security Enhancement Services, «CASES,» [En ligne].
Available: http://www.cases.lu.
[12] The Congress of the United States of America, «Public Law 107 - 296 - Homeland Security
Act of 2002,» Washington, 2002.
[13] M. Philips, «Using a Capability Maturity Model to Derive Security Requirements,» 13 March
2003. [En ligne]. Available: https://www.sans.org/reading-
room/whitepapers/bestprac/capability-maturity-model-derive-security-requirements-1005.
[15] R. Oppliger, «Quantitative risk analysis in information security management: a modern fairy
tale,» IEEE Security Privacy, vol. 13 , pp. pp. 18-21, 2015.
[21] Center for Internet Security, «CIS Benchmarks,» [En ligne]. Available:
http://benchmarks.cisecurity.org/downloads/.
128
[23] A. Calder, The Case for ISO 27001 (2013) Second Edition, London: IT Governance Ltd,
2013.
[24] S. Fenz et E. Weippl, «Ontology based IT-security planning,» chez 12th Pacific Rim
International Symposium on Dependable Computing (PRDC), 2006.
[25] X. Chen et Y. Li, «Network Security Evaluation Based on Support Vector Machine,» chez
2nd International Conference on Green Communications and Networks 2012 (GCN 2012),
2013.
[28] B. Boser, I. Guyon et V. Vapnik, «A training algorithm for optimal margin classifiers,» chez
5th Annual Workshop on Computational Learning Theory (COLT'92), 1992.
[29] C.-C. C. a. .-J. Lin, LIBSVM, Taipei: National Taiwan University, December 14, 2015;.
[31] P. Herzog, «Open Source Security Testing Methodology Manual (OSSTMM),» ISECOM,
[En ligne]. Available: http://www.isecom.org/research/. [Accès le 2015].
[32] Open Web Application Security Project (OWASP), «Attack,» [En ligne]. Available:
https://www.owasp.org/index.php/Category:Attack.
[33] National Institute of Science and Technology, «SP 800-30,» NIST Information Quality
Standards, Gaithersburg, September 2012.
[34] National Institute of Standard and Technology (NIST), «FIPS PUB 199: Standards for
Security Categorization of Federal Information Systems,» [En ligne]. Available:
http://csrc.nist.gov/publications/fips/fips199/FIPS-PUB-199-final.pdf.
130
6.1 Organisation interne Établir un cadre de management pour lancer et vérifier la mise
en place et le fonctionnement opérationnel de la sécurité de
l’information au sein de l’organisation.
8.1 Responsabilités relatives aux Identifier les actifs de l’organisation et définir les
actifs responsabilités pour une protection appropriée.
9.1 Exigences métier en matière de Limiter l’accès à l’information et aux moyens de traitement
contrôle d’accès de l’information.
133
9.2 Gestion de l’accès utilisateur Maitriser l’accès utilisateur par le biais d’autorisations et
empêcher les accès non-autorisés aux systèmes et services
d’information.
9.4 Contrôle de l’accès au système Empêcher les accès non-autorisés aux systèmes et aux
et à l’information applications.
11.1 Zones sécurisées Empêcher tout accès physique non autorisé, tout dommage ou
intrusion portant sur l’information et les moyens de traitement
de l’information de l’organisation.
12.2 Protection contre les logiciels S’assurer que l’information et les moyens de traitement de
malveillants l’information sont protégés contre les logiciels malveillants.
12.6 Gestion des vulnérabilités Empêcher toute exploitation des vulnérabilités techniques.
techniques
12.7 Considérations sur l’audit des Réduire au minimum l’impact des activités d’audit sur les
systèmes d’information systèmes en exploitation.
13.1 Gestion de la sécurité des Garantir la protection de l’information sur les réseaux et des
réseaux moyens de traitement de l’information sur lesquels elle
s’appuie.
14.2 Sécurité des processus de S’assurer que les questions de sécurité de l’information sont
développement et d’assistance étudiées et mises en œuvre dans le cadre du cycle de
technique développement des systèmes d’information.
14.3 Données de test Garantir la protection des données utilisées pour les tests.
15.1 Sécurité dans les relations avec Garantir la protection des actifs de l’organisation accessible
les fournisseurs aux fournisseurs.
16.1 Gestion des incidents liés à la Garantir une méthode cohérente et efficace de gestion des
sécurité de l’information et incidents liés à la sécurité de l’information, incluant la
améliorations communication des évènements et des failles liés à la sécurité.
135
18.1 Conformité aux obligations Éviter toute violation des obligations légales, statutaires,
légales et règlementaires règlementaires ou contractuelles relatives à la sécurité de
l’information, éviter toute violation des exigences de sécurité.
18.2 Revue de la sécurité de Garantir que la sécurité de l’information est mise en œuvre et
l’information appliquée conformément aux politiques et procédures
organisationnelles.
136
T1 Escalade de
privilège à partir
d’un poste de
travail d’un
employé typique
T2 Chiffrement du
poste de travail
T3 Test Wi-Fi
T4 Test d’ingénierie
sociale
T5 Test de sécurité
physique
138
T6 Sécurité du
processus de
virtualisation
T7 Sécurité du
processus de
sauvegarde
T8 Tests de sécurité
réseau
139