Rapport Pfe Final
Rapport Pfe Final
Rapport Pfe Final
i. Mise en place d'un réseau sans fil sécurisé pour les invitées et les employées
Un réseau sans fil est, comme son nom l'indique, un réseau dans lequel au moins deux
terminaux (ordinateur portable, PDA, etc.) équipé d'un adaptateur wifi peuvent communiquer
sans liaison filaire.
Grâce aux réseaux sans fil, un utilisateur a la possibilité de rester connecté tout en se
déplaçant dans un périmètre géographique plus ou moins étendu, c'est la raison pour laquelle
on entend parfois parler de "mobilité".
Les réseaux sans fil permettent de relier très facilement des équipements distants d'une
dizaine de mètres à quelques kilomètres. De plus l'installation de tels réseaux ne demande pas
de lourds aménagements des infrastructures existantes comme c'est le cas avec les réseaux
filaires (creusement de tranchées pour acheminer les câbles, équipements des bâtiments en
câblage, goulottes et connecteurs), ce qui a valu un développement rapide de ce type de
technologies.
En contrepartie se pose le problème de la réglementation relative aux transmissions
radio-électriques. En effet, les transmissions radio-électriques servent pour un grand nombre
d'applications (militaires, scientifiques, amateurs, ...), mais sont sensibles aux interférences,
c'est la raison pour laquelle une réglementation est nécessaire dans chaque pays afin de définir
les plages de fréquence et les puissances auxquelles il est possible d'émettre pour chaque
catégorie d'utilisation.
De plus les ondes hertziennes sont difficiles à confiner dans une surface géographique
restreinte, il est donc facile pour un pirate d'écouter le réseau si les informations circulent en
clair (c'est le cas par défaut). Il est donc nécessaire de mettre en place les dispositions
nécessaires de telle manière à assurer une confidentialité des données circulant sur les réseaux
sans fil.
Actuellement, ces réseaux (sans fil) sont devenus une des piliers indispensable de
chaque entreprise compris (les administrations publiques, les écoles, etc.). Dû ses
caractéristiques. Ainsi que la sécurité de ses réseaux est maintenant réalisable grâce aux outils
permettant une sécurité sans fil très fiable (chiffrement des données échangé, filtrage des
paquets, etc.).
Et d’après une étude faite par Cisco IT Case Study l’implémentation d’un réseau sans
fil rend Les employés gagnent en moyenne près de 90 minutes par jour de temps productif,
soit l’équivalent de plus de 24 000 dollars de bénéfices de productivité par utilisateur et par
an.
ii. Problématiques
Notre objectif est la mise en place d'un réseau sans fil sécurisé.
Ce réseau serait séparé en deux réseaux virtuelles l'un pour les invités et l'autre pour
les employés. Le but de cette séparation est de garantir un premier niveau de sécurité, c'est
d'éviter les interférences entre les invités et les employés car ces derniers ont des autorités
plus élevés, en contrepartie les invités vont avoir droit à accéder à l'internet.
La prochaine étape est la sécurisation de chaque réseau virtuel :
Commençant par la sécurisation du réseau des employés grâce à un serveur
d'authentification permettant d'identifier les utilisateurs sur le réseau et de définir leurs droits
d'accès. Ce qui permet un contrôle d'accès de chaque utilisateur au sein du même réseau à
travers l'attribution du droit d'accès grâce au serveur d'authentification.
Après l'implémentation d'un portail captif au sein du réseau des invités ce qui permet
de créer une passerelle entre le réseau interne et le réseau Internet. Ainsi que le portail sera
doté de fonctionnalités d'authentification qui permettent d'identifier les usagers du service à
des fins de traçabilité.
Et comme l'accès à internet est partagé entre les deux réseaux, Alors l'implémentation
d'un pare-feu est indispensable. Ce qui crée un système de filtrage d'adresses internet
permettant d'éviter l'utilisation des sites indésirables. Un filtrage applicatif sera également mis
en place afin de limiter l'utilisation de certains logiciels.
N'oublions pas la supervision réseau, qui porte sur la surveillance de manière continue
de la disponibilité des services en ligne, du fonctionnement, des débits, de la sécurité mais
également du contrôle des flux. Ainsi que la supervision des applications permettant de
connaître la disponibilité des machines en termes de services rendus en testant les applications
hébergées par les serveurs.
Chapitre 2 : Etude technique
Dans cette partie Nous allons étudier l’architecture réseau proposée par les encadrants,
en proposant les meilleures solutions selon nos besoins.
Et à travers une étude de marché, nous allons proposer des équipements convenables
et les comparer. Enfin nous allons choisir l’équipement idéal pour remplacer l’existant. La
figure ci-dessous représente l’architecture réseau.
a. Commutateur
Un commutateur réseau (en anglais switch), est un équipement qui relie plusieurs
segments (câbles ou fibres) dans un réseau informatique et qui permet de créer des circuits
virtuels. Et qui a comme rôle principal l’analyse des trames arrivant sur ses ports d'entrée et le
filtrage des données afin de les aiguiller uniquement sur les ports adéquats (on parle de
commutation ou de réseaux commutés). C’est-à-dire qu'il s'agit d'un élément actif agissant
au niveau 2 du modèle OSI.
Le troisième critère est votre besoin d’administrer votre réseau. Certains Switch
permettent de surveiller le trafic et ajuster des priorités.
Il existe 2 types de switch : les switch non manageables et les switch manageables.
Pour relier quelques ordinateurs entre eux, un switch non vite manageable suffira amplement.
Passé 30 à 40 ordinateurs, la gestion "manuelle" peut vite devenir chronophage.
L'administration par switch manageable se révèle alors indispensable. Vous pourrez surveiller
votre réseau, effectuer des statistiques, mais aussi gérer les priorités au niveau trafic. Le
Switch manageable est programmable à distance. Vous pourrez ainsi définir des autorisations
ou des restrictions d'accès à des machines faisant partie d'un sous-réseau local ou VLAN (voir
plus loin : technologie VLAN).
Le stack
Le stack est une connectique permettant à un ensemble de Switchs
interconnectés entre eux en "cascade" d'être reconnus comme une seule et même
machine.
Le module SFP ou ports GBIC
Le module SFP ou GBIC est un module permettant de convertir le signal d'une
fibre optique en un signal Ethernet gigabit. La fibre optique se généralisant dans les
immeubles de bureau, cette conversion est de plus en plus utile.
Le POE, ou comment remplacer une prise de courant par une prise réseau !
Le POE ou Power Over Internet permet d'alimenter en courant un appareil
électrique relié au switch par un câble réseau. Le POE utilise pour ce faire deux fils
inexploités par le câble et y fait passer une tension de 48 V.
Autre avantage de cette technologie, un seul onduleur situé à la source du POE
suffira à protéger l'ensemble des appareils alimentés par cette source de courant.
Le VLAN : Virtual LAN
Le VLAN ou "réseau virtuel" est un ensemble de machines gérées de manière
logique.
Cette "logique" est définie par des critères administrateur (adresse IP, adresse
MAC, ou autre protocole). L'administrateur peut autoriser ou restreindre la
communication entre certains groupes d'utilisateurs connectés au même switch.
La technologie VLAN permet ainsi d'accéder à un stade supérieur en terme de
sécurité des données.
Enfin, prenez en compte la marque. Globalement toutes les marques proposent des
produits de qualité. Les ténors du marché que sont TP-Link, Netgear, Linksys… proposent
des produits les plus innovants à des prix corrects.
b. Routeur
Le principe d'un routeur sans fil est le même que celui d'un routeur classique, si ce
n'est qu'il permet à des dispositifs sans-fil (stations Wifi par exemple) de se connecter aux
réseaux auxquels le routeur est connecté par des liaisons filaires (généralement Ethernet).
a. Comment choisir un Routeur sans fil
Ce protocole répond au modèle AAA. Ces trois initiales résument en quelques mots les
fonctions de ce protocole:
Authentification : Ce processus permet de garantir que la personne qui essaye
d’accéder à Internet possède un compte valide. Le mot de passe va être comparé et
validé en fonction des entrées de la base de données.
Autorisation : Processus qui va permettre de définir les services réseau dont les
utilisateurs ont le droit d’accès. Par exemple, la Croix-Rouge veut autoriser les
privilèges administrateur à certain groupe de l’Active Directory ou alors spécifier une
plage d’adresse IP pour autoriser les clients Radius.
Accounting : ou Comptabilisation : Processus qui va permettre à celui qui gère le
serveur Radius d’avoir un compte rendu des connexions faites sur le réseau, on parle
souvent de «logs» les fichiers contenant ces informations.
II. Avantages d'utilisation du serveur d’authentification
RADIUS
Définition
Fonctionnement
Avantages
Sécurité
Fiabilité
Centralisation de l’authentification
Inconvénients
Pourquoi Radius
Les avantages d'un serveur RADIUS sur l'efficacité d'un réseau entier sont vastes.
Bien que certaines entreprises ne connaissent pas les avantages d'un serveur RADIUS par
opposition à une clé pré-partagée, d'autres ont depuis longtemps bénéficié de la vitesse accrue
des serveurs RADIUS, ainsi que de leur capacité à renforcer la sécurité, Pour personnaliser les
restrictions basées sur l'utilisateur.
Voici quelques-uns des principaux avantages d'un serveur RADIUS:
Chaque session utilisateur individuelle est cryptée de façon unique, ce qui empêche les
autres utilisateurs d'acquérir des informations privées. Cela diffère d'un réseau PSK, dans
lequel chaque utilisateur partage la même clé de cryptage.
Un utilisateur ou un dispositif particulier peut facilement être dés autorisé en
désactivant la clé de cryptage unique correspondante. Cette simple désactivation garantit que
l'utilisateur dés autorisé ne peut accéder au réseau avec aucune autre clé et n'affecte pas les
clés de sécurité pour les autres utilisateurs.
Les autorisations réseau, telles que la stratégie de pare-feu, la planification et les
paramètres de Qos, peuvent être attribuées dans un profil d'utilisateur particulier, en fonction
de l'identité de l'utilisateur.
Un serveur RADIUS ne nécessite pas de puissance de serveur significative et peut être
installé de manière à ce qu'il corresponde le mieux à vos besoins sans changer votre système
actuel.
Installation et configuration
Installation du packages nécessaire pour free radius sur Ubuntu Server (Figure 3)
Création d’une base de données qui porte le même nom configuré dans le fichier qui
précède ‘radius’ (Figure 8)
Copier des tables du serveur Radius sur la base de données qu’on a créé ‘radius’ (Figure
9)
La base de données ‘radius’ après la copie des tables du serveur Radius (Figure 10)
La table nas pour la configuration des clients radius ‘les point d’accès qui vient
d’utiliser wpa2/entreprise comme protocole de chiffrement’ (Figure 11)
La table nas contient des champs obligatoires comme nasname qui est l’adresse IP du
client radius, ainsi que le port qui est en général 1812. Et le plus important c’est le secret qui
une clé partager entre le client radius et le serveur.
La table radcheck pour la configuration des utilisateurs de notre réseau (Figure 12)
TACACS
Définition
TACACS+ (Terminal Access Controller Access Control System Plus) est un protocole
de sécurité inventé dans la fin des années 90 par CISCO Systems. Il permet de vérifier
l’identité des utilisateurs distants mais aussi, grâce au modèle AAA, d’autoriser et de
contrôler leurs actions au sein du réseau local.
Il a fini par remplacer les protocoles TACACS et XTACACS, TACACS+ n’est pas
basé sur ces derniers TACACS+ est un serveur d’authentification permettant de centraliser les
autorisations d’accès (Les mots de passe utilisés sont gérés dans une base de données
centrale).
Fonctionnement :
Authentification
Autorisation
Comptables
Auditeurs réseau nécessitent des parcours ludiques pour faire leur travail correctement,
ce qui signifie qu'ils ont besoin de journaux d'activité. Inconvénient majeur de TACACS est
qu'il manque des services de comptabilité. Cet inconvénient critique peut être surmonté en
utilisant TACACS + ou XTACACS, versions améliorées qui offrent des services de
comptabilité.
En plus d'ajouter la fonctionnalité de comptabilité de TACACS, TACACS + est
soutenu par de nombreux fournisseurs d'équipement de réseau. Cependant, parce que la base
de données de l'utilisateur ne réside pas sur le serveur TACACS +, la performance peut être
lente. TACACS étendues (XTACACS) fournit également des services de comptabilité et de
soutien de protocole multiple, et n'est pas propriétaire, comme c'est TACACS +.
Description d'un paquet TACACS+
La taille de l’entête d’un paquet TACACS+ est de 12 Octet
Major version : donne le Numéro de la version Majeure de TACACS+.
Minor version : donne le Numéro de la version Mineure de TACAS+.
Type : définit s’il s’agit d’un paquet d’authentification, d’autorisation, ou de comptabilisation
(conformément à AAA).
Seq_no : numéro de séquence s’incrémentant de 1 pour chaque paquet envoyé lors d’une
session.
Flags : différents drapeaux permettant entre autre de crypter le paquet entier grâce à
l’algorithme MD5.
Length : taille du paquet.
Définition
Kerberos est un protocole d'authentification réseau créé par MIT qui utilise une
cryptographie à clés symétriques pour authentifier les utilisateurs auprès des services réseau,
éliminant par là même la nécessité de transmettre des mots de passe sur le réseau. Lorsque les
utilisateurs s'authentifient auprès des services réseau au moyen de Kerberos, les utilisateurs
non-autorisés tentant d'intercepter des mots de passe en surveillant le trafic sur le réseau
voient leurs desseins contrecarrés.
Fonctionnement
Remarque : L’utilisation de timestamp permet de s’assurer que les parties connaissent la clé
et d’éviter qu’une personne mal intentionnée rejoue une séquence d’accès intercepté.
Les versions du Kerberos
version1-2-3
Version 4
Version 5
Avantages et inconvénients
Avantages
Inconvénients
Avec une solution Kerberos, c'est tout ou rien. Une fois que Kerberos est utilisé sur le
réseau, tout mot de passe non-crypté transmis à un service non- kerberisé risque d'être
intercepté. Dans de telles circonstances, le système ne tirera aucun avantage de
l'utilisation de Kerberos. Afin de sécuriser votre réseau avec Kerberos, vous devez soit
utiliser des versions kerberisées de toutes les applications client/serveur qui envoient
des mots de passe en texte clair, soit n'utiliser absolument aucune application
client/serveur.
Installation et configuration
Installation
Pour installer Kerberos :
apt-get
sudo apt-get install krb5-kdc krb5-admin-server
Configuration
Lors de la configuration de Kerberos, installez tout d'abord le serveur. S'il est
nécessaire de configurer des serveurs esclaves, les informations détaillées relatives à la
configuration de relations entre les serveurs maîtres et esclaves sont présentées fournies dans
le guide d'installation de Kerberos V5 (Kerberos 5 Installation Guide) qui se trouve dans le
répertoire /usr/share/doc/krb5-server-5
Pour installer un serveur Kerberos, suivez les étapes suivantes :
1. Avant d'installer Kerberos 5, assurez-vous que la synchronisation de l'horloge et que le
DNS fonctionnent sur tous les ordinateurs clients et serveurs. Prêtez une attention
toute particulière à la synchronisation du temps entre le serveur Kerberos et ses
différents clients. Si l’horloge du serveur et celle des clients diffèrent de plus de cinq
minutes (cette durée par défaut est configurable dans Kerberos 5), les clients Kerberos
ne pourront pas s'authentifier auprès du serveur. Cette synchronisation de l'horloge est
nécessaire pour empêcher un agresseur d'utiliser un ancien ticket afin de se faire
passer pour un utilisateur valide.
2. Installez les paquetages krb5-libs, krb5-server et krb5-workstation sur la machine
choisie pour l'exécution du KDC. Cette machine doit bénéficier d'une sécurité très
élevée — dans la mesure du possible, elle ne devrait exécuter aucun service autre que
le KDC.
Si une interface utilisateur graphique (ou GUI) est nécessaire pour l'administration de
Kerberos, installez le paquetage gnome-kerberos. Celui-ci contient krb5, un outil
graphique permettant la gestion des tickets.
3. Éditez les fichiers de
configuration /etc/krb5.conf et /var/kerberos/krb5kdc/kdc.conf afin qu'ils
correspondent aux mappages nom de zone et domaine-à-zone. Une simple zone (aussi
appelée realm) peut être construite en remplaçant des instances
de EXAMPLE.COM et example.com par le nom de domaine correct — en vous
assurant de bien respecter le format approprié des noms contenant des lettres
majuscules et de ceux avec des minuscules — et en remplaçant le
KDC kerberos.example.com par le nom de votre serveur Kerberos. Par convention,
tous les noms de realm sont en lettres majuscules et tous les noms d'hôtes et de
domaines DNS sont en lettres minuscules. Pour obtenir des informations plus
détaillées sur les différents formats de ces fichiers, consultez leurs pages de manuel
respectives.
4. Créez la base de données en utilisant l'utilitaire kdb5_util à partir de l'invite du shell :
/usr/kerberos/sbin/kdb5_util create -s
5. La commande create crée la base de données qui stockera les clés pour votre realm
Kerberos. L'option -s permet la création forcée d'un fichier stash dans lequel la clé du
serveur maître est conservée. En l'absence d'un fichier stash à partir duquel la clé peut
être lue, le serveur Kerberos (krb5kdc) enverra une invite pour que l'utilisateur saisisse
le mot de passe du serveur maître (qui permet de recréer la clé) chaque fois qu'il est
lancé.
6. Éditez le fichier /var/kerberos/krb5kdc/kadm5.acl. Ce fichier est utilisé
par kadmind d'une part afin de déterminer les éléments principaux devant avoir un
accès administratif à la base de données de Kerberos et d'autre part, afin de définir leur
niveau d'accès. Une seule ligne suffit à la plupart des sociétés, comme dans l'exemple
ci-dessous :
7. La plupart des utilisateurs seront représentés dans la base de données par un seul
principal (avec une instance NULL ou vide, tel que [email protected]). Avec
cette configuration, les utilisateurs ayant un second principal avec une
instance admin (par exemple, niggas/[email protected]) peuvent exercer un
pouvoir total sur la base de données Kerberos du realm.
8. Une fois que kadmind est lancé sur le serveur, tout utilisateur peut accéder à ses
services en exécutant kadmin sur un client ou serveur quelconque du realm. Toutefois,
seuls les utilisateurs spécifiés dans le fichier kadm5.acl peuvent modifier le contenu de
la base de données, à l'exception du changement de leur propre mot de passe.
Remarque
Remarque
Une fois les étapes ci-dessus accomplies, le serveur Kerberos devrait être opérationnel.
IV. Conclusion
V. Solution choisie
Un portail captif est un élément matériel ou software qui vient s’intégrer dans votre
réseau et qui, pour chaque nouvelle connexion va rediriger les utilisateurs vers une page
d’accueil ou ils devront entrer un nom d’utilisateur et un mot de passe. Une fois ces
informations récupérés, le portail captif comme alcasar.net et pfsense.org les stocke sur le
serveur et autorise la connexion. Au-delà de l'authentification, les portails captifs permettent
d'offrir différentes classes de services et tarifications associées pour l'accès Internet (Par
exemple: Wifi gratuit, filaire payant, 1 heure gratuite,...). Cela est obtenu en interceptant tous
les paquets quelles que soient leurs destinations jusqu'à ce que l'utilisateur ouvre son
navigateur web et essaie d'accéder à Internet. Lors de l'établissement de la connexion, aucune
sécurité n'est activée. Cette sécurité ne sera active que lorsque l'ordinateur connecté tentera
d'accéder à Internet avec son navigateur web. Le portail captif va, dès la première requête
HTTP, rediriger le navigateur web afin d'authentifier l'utilisateur, sans quoi aucune demande
ne passera au-delà du serveur captif. Une fois l'utilisateur authentifié, les règles de firewall le
concernant sont modifiées et celui-ci se voit autorisé à utiliser son accès Internet pour une
durée fixée par l'administrateur. A la fin de la durée fixée, l'utilisateur se verra redemander ses
identifiants de connexions afin d'ouvrir une nouvelle session.
Ce système offre donc une sécurité du réseau mis à disposition, il permet de respecter
la politique de filtrage web de l'entreprise grâce à un module proxy et permet aussi grâce à un
firewall intégré d'interdire l'accès aux protocoles souhaités.
II. Les portails captif comment se fonctionne
L'avantage majeur du portail captif par rapport au 802.1x (Radius, Taccas) est pour le
client : il doit uniquement disposer d'un navigateur Web supportant le SSL.
Le portail captif est donc facile à implémenter du côté client, contrairement au 802.1x
(Radius, Taccas…) qui nécessite un logiciel particulier sur chaque poste.
Le coût serveurs/matériels
L'implémentation du 802.1x requiert du matériel compatible. Cette architecture
représente donc un coût supplémentaire par rapport à du matériel « classique ».
Le portail captif présente l'avantage de reposer sur des serveurs « classiques » ou
même d'être embarqué dans du matériel de type routeur (il existe des codes binaires gratuits
pour les routeurs Linksys par exemple). Il ne remet donc pas en cause l'infrastructure
existante, ce qui se traduit par des coûts plus faibles. De plus, il existe des solutions de portail
captif gratuites (comme par exemple NoCatAuth qui sera étudié par la suite).
Ainsi, l'utilisation des portails captifs nécessite moins de complexité dans les points
d’accès ou les commutateurs utilisés, celle-ci étant reportée soit dans des serveurs soit dans
des routeurs embarquant des portails captifs.
IV. Les inconvénients de portal captif
Le plus important est qu'il détourne le trafic normal : en cela, le portail captif est une
attaque de l'Homme du Milieu et a donc de graves conséquences en termes de sécurité. Il
éduque les utilisateurs à trouver normal le fait de ne pas arriver sur l'objectif désiré, et facilite
donc le hameçonnage.
Le portail captif ne marche pas ou mal si la première connexion est en HTTPS, ce qui
est de plus en plus fréquent. Là encore, il éduque les utilisateurs à trouver normaux les
avertissements de sécurité (« mauvais certificat, voulez-vous continuer ? »).
Le portail captif n'est pas authentifié, lui, et l'utilisateur est donc invité à donner ses
informations de créance à un inconnu.
En Wifi, comme l'accès n'est pas protégé par WPA, le trafic peut être espionné par les
autres utilisateurs.
Spécifique au Web, le portail captif ne marche pas avec les activités non-Web (comme
XMPP). Même les clients HTTP non-interactifs (comme une mise à jour du logiciel via
HTTP) sont affectés.
V. ETUDE DES PORTAIL CAPTIF
ALCASAR (Application Libre pour le Contrôle d'Accès Sécurisé et Authentifié au Réseau)
PFSENSE
PFsense est une distribution FreeBSD développée en 2004. L'objectif de départ est
d'assurer les fonctions de pare-feu et de routeur mais l'engouement généré par cet applicatif
lui a permis d'étendre ses fonctionnalités et présente maintenant les fonctions de portail captif,
serveur proxy, DHCP ...
Son installation se fait facilement via une distribution dédiée et toutes les
configurations peuvent se faire soit en ligne de commande (SSH) ou via l'interface web
(HTTPS). La sauvegarde et la restauration de configuration est disponible à travers l'interface
web et permet de générer un simple fichier d'une taille raisonnable. Le portail assure une
évolution constante grâce à des mises à jour régulières dont l'installation est gérée
automatiquement dans une partie du panneau d'administration.
Cette solution permet une authentification sécurisée via le protocole HTTPS et un
couple utilisateur / mot de passe.
ZeroShell
ZeroShell est une distribution Linux conçue pour mettre en place une sécurité globale
au sein d'un réseau (Pare-Feu, VPN, portail captif...). Son installation est simple via une
distribution dédiée. Elle présente une interface de gestion web simple d'utilisation qui permet
entre autres de sauvegarder la configuration du portail captif ou encore de personnaliser les
pages de connexion et déconnexion dans un éditeur HTML intégré.
Comme les deux autres solutions la page d'authentification est sécurisée et la connexion se
fait via un couple utilisateur / mot de passe. On retrouve assez peu de documentation pour la
gestion du système mais la communauté à l'air tout de même bien présente. Son utilisation
reste identique aux autres solutions présentées.
Pour faire c’étude on mais des critères qu’est on a besoin pour l’implémentation de
notre réseau sécurisé et que doivent prendre en compte les différentes solutions :
Authentification
Documentation ++ +++ +
Personnalisation + + -
Sauvegarde Restauration + + +
configuration
Pérennité de la solution + + -
Bien que nous n'ayons pas mis en pratique toutes ces solutions pour les comparer,
l'étude théorique permet de retenir les deux premières solutions à savoir PFsense et
ALCASAR car elles répondent toutes deux à nos besoins: solutions libres, peuvent s'installer
sur un serveur comme sur un poste de travail, authentification des utilisateurs par login et mot
de passe, contrôle de la bande passante, facilité d'administration, d'installation et de
configuration, facilité d'utilisation, documentation très détaillée et disponible, disponibilité de
mises à jour, etc.
ETUDE THECHNIQUE D’ALCASAR
Définition
ALCASAR est un contrôleur sécurisé d'accès à Internet pour les réseaux publics ou
domestiques. Il authentifie et protège les connexions des utilisateurs indépendamment de leurs
équipements (PC, tablette, smartphone, console de jeux, TV, etc.). Il intègre plusieurs
mécanismes de filtrage adaptés aux besoins privés (contrôle parental et filtrage des objets
connectés) ou aux chartes et règlements internes (entreprises, associations, centres de loisirs et
d'hébergement, écoles, bibliothèques, mairies, etc.).
Installé sur un réseau public, il protège le responsable du réseau en journalisant et en
attribuant (imputation) toutes les connexions afin de répondre aux exigences légales et
réglementaires*.
Au-delà de ces aspects, ALCASAR est utilisé comme outil pédagogique dans le cadre
de diverses formations : "sécurité des réseaux", "contrôles et éthique", "respect de la vie
privée", etc. La documentation complète de ce projet est disponible dans la section
"Téléchargement" de ce site Web.
ALCASAR est un projet indépendant, libre (licence GPLv3) et gratuit. L'équipe de suivi
de projet (alcasar team) est conduite par Richard Rey "rexy" et Franck Bouijoux "3abtux".
Elle est constituée de développeurs "seniors" (Pascal Levant "angel95" et Stéphane Weber
"Ste web"), de développeurs «juniors», de rédacteurs/traducteurs, de graphistes et de testeurs
identifiables sur le forum.
Aperçu des fonctionnalités et services d’ALCASAR et aussi les versions de logiciel
Nous allons maintenant mettre en place la solution Alcasar dans un environnement de test. En
premier lieu nous définirons l’architecture réseau utilisée pour le maquettage. En second lieu nous
procéderons à l’installation de la solution. Ensuite, nous effectuerons la configuration des différents
éléments.
L’architecture de réseau
Le but est de simuler une configuration réseau simple mais réaliste par rapport au matériel
actuellement déployé dans les infrastructures publiques.
PROBLEME RENCONTRE
(b) SOLUTION
On a finalement résolu le problème, qui semblait venir du partitionnement. En effet,
on a choisi de découper le disque dur en 3 partitions :
• Une partition obligatoire, « SWAP », pour le fichier d’échange (Taille : environ 2
fois la quantité de mémoire vive)
• Une partition pour le système Mandriva (plus que 5GB – point de montage : /)
• Une partition pour la sauvegarde des LOG (plus que 10GB de l’espace – point de
montage : /var)
(d) Solution
Après des multiples recherches, on a trouvé que ce problème est un bug dans le
système Mandriva et pour résoudre ce problème, nous devons supprimer une ligne qui
contient "VGA = 791" de ‘/mnt/boot/grub/menu.list ‘ et pour ce faire, nous avons Démarré
sur le système de secours (rescue system)
Apres ça en va la console mode
INSTALLATION D’ALCASAR
Lancement de l’installation
# Sh alcasar.sh -install
Lors de l’installation d’Alcasar, plusieurs paramètres sont demandés afin de préconfigurer les
différents modules.
NOM DE L’ORGANISME
FIN DE L’INSTALLATION
Maintenant qu’Alcasar est installé, la machine doit être redémarrée. Nous allons
procéder aux derniers paramétrages de la machine.
Paramétrage d’alcasar
Le réseau LAN :
Adresse IP du réseau : 192.168.1.0/24 (masque de réseau : 255.255.255.0) ;
• Nombre maximum d’équipements : 253 ;
• Adresse IP de la carte réseau interne d’ALCASAR : 192.168.1.4/24 ;
• Paramètres des équipements :
• Adresses IP disponibles : de 192.168.1.3 à 192.168.1.254 (statiques ou
dynamiques);
• Adresses du serveur DNS : 192.168.1.4 (adresse IP de la carte réseau interne
d’ALCASAR);
• suffixe DNS : localdomain (ce suffixe doit être renseigné pour les
équipements en adressage statique);
• Adresse du routeur par défaut (default Gateway) : 192.168.1.4 (adresse IP de
la carte réseau interne d’ALCASAR) ;
• masque de réseau : 255.255.255.0
Le réseau WAN:
Adresse IP du réseau : 172.25.0.0/24 (masque de réseau : 255.255.255.0) ;
• Nombre maximum d’équipements : 253 ;
• Adresse IP de la passerelle par default : 172.25.0.1/24 ;
• Adresse IP de la carte réseau interne d’ALCASAR : 172.25.0.3/24 ;
• Paramètres des équipements :
• Adresses IP disponibles: de 172.25.0.3 à 172.25.0.254 (statiques ou
dynamiques) ;
• Adresses du serveur DNS : 172.25.0.2
• suffixe DNS : niggas (ce suffixe doit être renseigné pour les équipements en
adressage statique) ;
• masque de réseau : 255.255.255.0
Configuration IP
Interface graphique
Le menu « système » + « réseau » vous permet de visualiser et de modifier les
paramètres réseau d’ALCASAR.
Ps : Si vous modifiez le plan d'adressage du réseau de consultation, vous devrez relancer tous
les équipements connectés à ce réseau (dont le vôtre).
LINE DE COMMANDE (mode console)
Vous pouvez aussi modifier ces paramètres en mode console en éditant le fichier «
/usr/local/etc/alcasar.conf» puis en lançant la commande «alcasar-conf.sh -apply».
Le serveur DHCP (Dynamic Host Control Protocol) fournit de manière dynamique les
paramètres réseau aux équipements de consultation.
Vous pouvez réserver des adresses IP pour vos équipements exigeant un adressage
fixe (ou statique) comme vos serveurs, vos imprimantes ou vos points d’accès WIFI.
ALCASAR doit être le seul routeur et le serveur DHCP sur le réseau de consultation.
Dans le cas contraire, assurez-vous de bien maîtriser l’architecture multiserveur DHCP.
PS : Le serveur DHCP est activer par default dans ALCASAR pour et aussi la configuration faite
automatiquement.
Les utilisateurs
Nous allons configurer un usager afin de pouvoir constater les fonctionnalités offertes
par Alcasar. On accède à la page de création d’usagers dans le menu : USAGERS Créer
Usager.
On a créé un usager de test, niggas. On peut spécifier un grand nombre de paramètre
concernant cet usager. Le cahier des charges spécifie uniquement le nom et prénom de la
personne mais nous pouvons également spécifier :
• Son adresse Email • Son Services • Ses Coordonnées • Des règles d’utilisation (durée
de session, plages horaires…)
Le Pare-Feu est l’un des points faible de la solution Alcasar. En effet, elle ne contient
pas de filtrage de protocoles comme les solutions PFsense ou ZeroShell mais se contente d’un
filtrage classique basé sur les ports.
Néanmoins au final, ce ne représente pas un handicap pour la solution étant donné que
nous avons choisi d’autoriser uniquement les protocoles HTTP, HTTPS et SSH pour la prise
en main à distance.
ETUDE THECHNIQUE De ZEROSHELL
Définition
ZeroShell est une distribution Linux créée dans le but d'être très complète conçue pour
fournir des services réseaux sécurisés dans un réseau local. Elle a été développée par Fulvio
Ricciardi pour être totalement administrable via une interface web. Fournie sous forme de
Live CD, elle s'initialise en insérant le CD dans la machine cible et en la redémarrant. La
connexion à l’interface d’administration se fait via un navigateur web pour ensuite configurer
les services réseaux.
Fonctionnement
Avantages :
Prérequis:
- Une machine (serveur ZeroShell) avec au moins deux (2) cartes réseau; - Un CD
d’installation de ZeroShell
On télécharge d’abord le fichier d’installation, qui est un fichier compressé avec l’extension
.iso.
Ensuite, on crée un CD Bootable, c’est-à-dire un CD de démarrage.
Enfin, on insère le CD pour lancer l’installation qui sera de façon automatique.
À la fin du lancement, nous aurons un écran comme suit:
Pour la configuration des différents services, sur un poste client, nous utiliserons un
navigateur web (Internet Explorer, Mozilla Firefox, Safari…) pour accéder à l’interface
graphique avec l’adresse : 192.68.0.75
Par défaut:
Username: admin
Password: zeroshell
Création d’une partition pour stocker notre configuration (Figure 20)
Il est très important d’enregistrer nos fichiers de configuration dans une partition de
notre disque dur. Pour se faire, nous allons créer une nouvelle partition.
9- on clique sur Create Profile. Une nouvelle fenêtre apparaitra, comme suit:
10- on renseigne les différentes informations relatives à notre profil
11- on clique sur Create.
Configuration réseau
Après avoir créé notre partition et notre profil, nous allons configurer les adresses IP de notre
réseau.
1- on clique sur Network pour afficher nos interfaces réseau. ETH00 est l’interface de notre
réseau local avec une adresse par défaut 192.168.0.75.
2- on choisit l’interface ETH01 pour lui attribuer une adresse IP, 192.168.1.5 3 on clique sur
Add IP. Une nouvelle fenêtre apparaitra.
Nous allons ensuite ajouter une passerelle par défaut (Default Gateway), 192.168.1.154
6- on clique sur GATEWAY pour ajouter la passerelle. Une nouvelle fenêtre
apparaitra.
Une fois tout ceci fait, il nous affichera les routes statiques:
Pour permettre aux clients internes d’utiliser la connexion Internet, nous devons
activer le NAT (Network Adresse Translation).
1- on clique sur Router.
2- on clique sur NAT pour faire la translation d’adresse. Une nouvelle fenêtre
apparaitra.
3- on choisit l’interface parmi la liste Avaible Interfaces (ETH01 dans notre cas), puis on
l’ajoute dans la liste NAT Enabled Interfaces, avec le bouton .
4- on clique sur Save pour valider.
Portail Captif
Le portail captif (captive portal) consiste à forcer les clients HTTP d'un réseau à
afficher une page web spéciale (le plus souvent dans un but d'authentification) avant d'accéder
à Internet normalement.
Avant d’activer cette fonction, nous allons d’abord créer des utilisateurs.
HTTP Proxy
Les pages Web sont de plus en plus souvent les moyens par lesquels les vers et les
virus se propagent sur Internet. Pour pallier à ce problème, des techniques sont adaptées telles
que le proxy. Un des plus gros problèmes lorsqu’on utilise un serveur proxy est la
configuration de tous les navigateurs Web pour l'utiliser. Il est donc nécessaire de spécifier
son adresse IP ou nom d'hôte et le port TCP sur lequel il répond (généralement le port 8080).
Cela pourrait être lourd dans le cas des réseaux locaux avec de nombreux utilisateurs, mais
pire encore, les utilisateurs pourront supprimer cette configuration pour avoir Internet. Pour
résoudre ce problème, ZeroShell utilise un proxy transparent qui consiste à capturer
automatiquement les demandes des clients. ZeroShell est en mesure de saisir ces requêtes
web, pour se faire il doit être configuré comme une passerelle réseau, afin que le trafic
Internet client passe au travers. ZeroShell permet également de bloquer l’accès à certaines
pages web, c’est ce qu’on appelle Black List ou Liste Noire.
Exemple: www.exemple.com: bloque la page d’accueil du site alors que
www.exemple.com/* bloque tout le contenu.
1- on clique sur HTTP Proxy pour accéder à l’interface de configuration. 2- on ajoute les
différentes adresses IP auxquelles on veut restreindre l’accès. Une nouvelle fenêtre apparaîtra.
Définition
Fonctionnalités
- Load balancing
- Portail captif
Cette liste n'est pas exhaustive et si une fonction vous manque, des extensions sont
disponibles directement depuis l'interface de Pfsense, permettant notamment l'installation d'un
proxy ou d'un filtrage d'URL, très simplement.
Dernière chose, Pfsense nécessite deux cartes réseaux minimum (une pour le WAN et
une pour le LAN).
Avantages et inconvénients
Enfin, il est important de souligner que Pfsense est très peu gourmand en termes de
ressources. En effet, la configuration minimale requiert un processeur équivalent ou
supérieur à 500Mhz quand la mémoire exigée est de 256Mo. Vous n'aurez donc aucune
difficulté à mettre en place cette solution !
En revanche, et malgré les nombreux avantages de cette solution, il faudra s'assurer
que la personne en charge de gérer le parc informatique ait les connaissances nécessaires pour
déployer cette solution.
En effet, de nombreuses PME font confiance à des opérateurs qui disposent d'un
service entreprise (comme Orange, SFR ou encore Numéricâble) pour la mise en place d'une
connexion internet dans leurs locaux.
Les box possèdent donc des interfaces simplifiées avec un support adapté à leurs
besoins afin de faire face aux problèmes de tous les jours.
Installation et configuration
Téléchargez l’image de Pfsense dans la section « Download » de Pfsense
(http://www.pfsense.com).
Démarrez votre ordinateur à partir du cd de l’image de Pfsense ; l’installation va alors
commencer.
Laissez alors le compte à rebours se terminer (10 secondes) ou appuyez
directement sur « Entrée ». Le démarrage par défaut est choisi.
Ensuite vient la configuration des interfaces réseaux. Vous remarquerez ci-
dessous que FreeBSD détecte le nombre de carte réseau, et y attribue des noms (em0 et
em1 dans notre cas).
Choisissez donc quel interface sera le LAN et l'autre le WAN (ici LAN : em1,
WAN : em0).
Les VLAN ne seront pas utilisés.
Nous allons maintenant configurer les interfaces LAN et WAN en détail. Pour
cela, allez dans Interface, puis WAN pour commencer. Entrez ici l'adresse IP de la
carte réseau coté WAN, ainsi que l'adresse IP de la passerelle.
Configurer ensuite la carte LAN (elle doit être normalement bien configuré,
mais vous pouvez faire des modifications par la suite ici)
Allez ensuite dans la section DNS forwarder. Activez ensuite l'option Enable
DNS forwarder. Cette option va permettre à Pfsense de transférer et d'émettre les
requêtes DNS pour les clients
Il ne reste plus qu'à configurer le serveur DHCP pour le LAN, afin de simplifier
la connexion des clients. Pour cela, allez dans la section DHCP server.
Cochez la case Enable DHCP server on LAN interface. Entrez ensuite la plage
d'adresse IP qui sera attribuée aux clients.
Dans notre cas, notre plage d'IP sera 176.16.0.10 – 176.16.0.30. Il faut par la
suite entrer l'IP du serveur DNS qui sera attribuée aux clients.
Ici, il vous faut entrer l'IP du portail captif. En effet, nous avons définie plus
haut que Pfsense fera lui-même les requêtes DNS.
Pour finir, entrez l'adresse de la passerelle pour les clients. Celle-ci sera le
portail captif : 176.16.0.6. Voici donc ce que vous devriez avoir
Voilà, Pfsense est correctement configuré. Pour le moment il sert uniquement
de Firewall et de routeur. Nous allons maintenant voir comment activer l'écoute des
requêtes sur l'interface LAN et obliger les utilisateurs à s'authentifier pour traverser le
Firewall.
Nous allons voir la procédure afin de mettre en place le portail captif. Pour cela,
allez dans la section Captive portail. Cochez la case Enable captive portail, puis
choisissez l'interface sur laquelle le portail captif va écouter (LAN dans notre cas.
Après nombreux essais, on a choisi Pfsense, d'une part parce que c'est une solution Open
Source qui dispose d'une grande communauté et d'autre part parce qu'elle offre un grand
nombre de fonctionnalités. Cette distribution, si elle est bien utilisée, permet de couvrir une
bonne partie des besoins d'une société, si ce n'est l'intégralité.
Chapitre 5 : PARE FEU
Pourqoi choisir un Firewall ?
De nos jours, la plus part des entreprises possèdent de nombreux postes informatiques
qui sont en général reliés entre eux par un réseau local. Ce réseau permet d'échanger des
données entre les divers collaborateurs internes à l'entreprise et ainsi de travailler en équipe
sur des projets communs.
La possibilité de travail collaboratif apportée par un réseau local constitue un premier
pas. L'étape suivante concerne le besoin d'ouverture du réseau local vers le monde extérieur,
c'est à dire internet.
En effet, une entreprise n'est jamais complètement fermée sur elle même. Il est par
Exemple nécessaire de pouvoir partager des informations avec les clients de
l'entreprise.
Ouvrir l'entreprise vers le monde extérieur signifie aussi laisser une porte ouverte a
divers acteurs étrangers. Cette porte peut être utilisée pour des actions qui, si elles ne sont pas
contrôlées, peuvent nuire à l'entreprise (piratage de données, destruction,...). Les mobiles pour
effectuer de tel actions sont nombreux et variés : attaque visant le vol de données, passe-
temps, ...
Pour parer à ces attaques, une architecture de réseau sécurisée est nécessaire.
L'architecture devant être mise en place doit comporter un composant essentiel qui est le
firewall. Cette outil a pour but de sécuriser au maximum le réseau local de l'entreprise, de
détecter les tentatives d'intrusion et d'y parer au mieux possible. Cela permet de rendre le
réseau ouvert sur Internet beaucoup plus sûr.
De plus, il peut également permettre de restreindre l'accès interne vers l'extérieur. En
effet, des employés peuvent s'adonner à des activités que l'entreprise ne cautionne pas, comme
par exemple le partage de fichiers. En plaçant un firewall limitant ou interdisant l'accès à ces
services, l'entreprise peut donc avoir un contrôle sur les activités se déroulant dans son
enceinte.
Le firewall propose donc un véritable contrôle sur le trafic réseau de l'entreprise. Il
permet d'analyser, de sécuriser et de gérer le trafic réseau, et ainsi d'utiliser le réseau de la
façon pour laquelle il a été prévu. Tout ceci sans l'encombrer avec des activités inutiles, et
d'empêcher une personne sans autorisation d'accéder à ce réseau de données.
Firewall applicatif
Les firewall applicatif (aussi nommé pare-feu de type proxy ou passerelle applicative)
fonctionne sur la couche 7 du modèle OSI. Cela suppose que le firewall connaisse l'ensemble
des protocoles utilisés par chaque application. Chaque protocole dispose d'un module
spécifique à celui-ci. C'est à dire que, par exemple, le protocole HTTP sera filtré par un
processus proxy HTTP.
Ce type de firewall permet alors d'effectuer une analyse beaucoup plus fine des
informations qu'ils font transiter. Ils peuvent ainsi rejeter toutes les requêtes non conformes
aux spécifications du protocole. Ils sont alors capables de vérifier, par exemple, que seul le
protocole HTTP transite à travers le port 80. Il est également possible d'interdire l'utilisation
de tunnels TCP permettant de contourner le filtrage par ports. De ce fait, il est possible
d'interdire, par exemple, aux utilisateurs
d'utiliser certains services, même s'ils changeant le numéro de port d'utilisation du
services (comme par exemple les protocoles de peer to peer).
Les limites :
La première limitation de ces firewalls réside sur le fait qu'ils doivent impérativement
connaître toutes les règles des protocoles qu'ils doivent filtrer. Effectivement, il faut que le
module permettant le filtrage de ces protocoles soit disponible.
Ensuite, ce type de firewall est très gourmand en ressource. Il faut donc s'assurer
d'avoir une machine suffisamment puissante pour limiter les possibles ralentissements dans
les échanges.
Firewall authentifiant
Les firewall authentifiant permettent de mettre en place des règles de filtrage suivant
les utilisateurs et non plus uniquement suivant des machines à travers le filtre IP. Il est alors
possible de suivre l'activité réseau par utilisateur.
Pour que le filtrage puisse être possible, il y a une association entre l'utilisateur
connecté et l'adresse IP de la machine qu'il utilise. Il existe plusieurs méthode d'association.
Par exemple authpf, qui utilise SSH, ou encore NuFW qui effectue l'authentification par
connexion.
Firewall personnel
Les firewalls personnels sont installés directement sur les postes de travail. Leur
principal but est de contrer les virus informatiques et logiciels espions (spyware).
Leur principal atout est qu'ils permettent de contrôler les accès aux réseaux des
applications installés sur la machines. Ils sont capables en effet de repérer et d'empêcher
l'ouverture de ports par des applications non autorisées à utiliser le réseau.
DMZ
une zone démilitarisée (ou DMZ, de l'anglais demilitarized zone) est un sous réseau séparé
du réseau local et isolé de celui-ci et d'Internet (ou d'un autre réseau) par un pare-feu. Ce sous-
réseau contient les machines étant susceptibles d'être accédées depuis Internet.
Le pare-feu bloquera donc les accès au réseau local pour garantir sa sécurité. Et les services
susceptibles d'être accédés depuis Internet seront situés en DMZ.
En cas de compromission d'un des services dans la DMZ, le pirate n'aura accès qu'aux machines
de la DMZ et non au réseau local.
La figure ci-contre représente une architecture DMZ avec un pare-feu à trois interfaces.
L'inconvénient est que si cet unique pare-feu est compromis, plus rien n'est contrôlé. Il est
cependant possible d'utiliser deux pare-feu en cascade afin d'éliminer ce risque. Il existe aussi
des architectures de DMZ où celle-ci est située entre le réseau Internet et le réseau local,
séparée de chacun de ces réseaux par un pare-feu.
Configuration
Pour ce réseau on va utiliser un firewall matériel avec la configuration suivante :
On va acceder à l’interfece de configuration du firewall par l’adresse 192.168.1.1