Big Data tp1
Big Data tp1
TP 1 Big Data
Initiation à Hadoop File System (HDFS)
Objectif :
Ce TP constitue un premier pas vers l’utilisation d’outils Big Data. Nous avons fait le choix de
l’environnement Apache Hadoop, car c’est un framework open-source de stockage et de traitement de
données volumineuses sur un cluster de machines distribuées. Il est utilisé par un grand nombre de
contributeurs et utilisateurs.
Description :
1
Adel BENALI
FST-SBZ A.U. 2024-2025 3ème LSI
De même que java JDK, configurer les variables d’environnement en ajoutant la variable
d’environnement avec la commande : SETX HADOOP_HOME "C:\big-data\hadoop-3.3.1"
Ajouter à votre PATH le chemin d’accès aux dossiers bin de java et de hadoop :
• %JAVA_HOME%\bin
• %HADOOP_HOME%\bin
Vérifier que la configuration a été bien faite en tapant winutils.exe dans l’invite de commandes ou le
Windows PowerShell.
2
Adel BENALI
FST-SBZ A.U. 2024-2025 3ème LSI
Vous devez aussi pouvoir exécuter la commande hadoop –version et hadoop version
Configurer HDFS
Créez un dossier « data » dans le dossier hadoop-3.3.1 (le chemin selon ce tp : C:/big-data/hadoop-
3.3.1/). Dans ce dossier, créez deux dossiers « namenode » et « datanode ».
Ouvrez le fichier hdfs-site.xml situé dans %HADOOP_HOME%\etc\hadoop
Remplacez la configuration avec :
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///C:/big-data/hadoop-3.3.1/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/C:/big-data/hadoop-3.3.1/data/datanode</value>
</property>
</configuration>
4
Adel BENALI
FST-SBZ A.U. 2024-2025 3ème LSI
Lancement de HDFS
1. On formate le système de fichiers : hdfs namenode –format
5
Adel BENALI
FST-SBZ A.U. 2024-2025 3ème LSI
Manipulation de HDFS :
Toutes les commandes interagissant avec le système de fichiers Hadoop commencent par hadoop fs.
Ensuite, les options rajoutées sont très largement inspirées des commandes Unix standard.
Dans cette section, nous allons utiliser les commandes du shell Hadoop de façon à importer des
données dans HDFS et à exporter des données à partir de HDFS. Ces commandes sont souvent
employées pour charger des données appropriées, à télécharger des données traitées, à maintenir le
système de fichiers et à consulter le contenu des dossiers. Il est donc indispensable de les connaître
pour exploiter efficacement HDFS.
La première étape est la création des répertoires nécessaires (votre espace de stockage)
hdfs dfs -mkdir /user
hdfs dfs -mkdir /user/<votre user_name>
ou bien
hdfs dfs –mkdir -p /user/<votre user_name>
Voici une autre commande (à utiliser dans un cluster multi-nœuds mais vous pouvez la tester) :
• hdfs fsck /user/<votre user_name>-files -blocks : affiche la liste des blocs utilisés
par vos fichiers
6
Adel BENALI