Tutorial Install Dan Konfigurasi Apache Hadoop Di Ubuntu
Tutorial Install Dan Konfigurasi Apache Hadoop Di Ubuntu
Apache Hadoop 3.1 memiliki peningkatan yang nyata setiap perbaikan bug
lebih dari rilis stabil 3.0 sebelumnya. Versi ini memiliki banyak peningkatan di
HDFS dan MapReduce. Tutorial ini akan membantu Anda untuk menginstal dan
mengkonfigurasi Hadoop 3.1.2 Single-Node Cluster di Ubuntu 18.04, 16.04
LTS dan Sistem LinuxMint. Artikel ini telah diuji dengan Ubuntu 18.04 LTS.
Langkah 1 – Prasyarat
Java adalah persyaratan utama untuk menjalankan Hadoop pada sistem apa
pun, jadi pastikan Anda menginstal Java pada sistem Anda
menggunakan perintah berikut.
su - hadoop
ssh localhost
exit
cd ~
wget https://www-us.apache.org/dist/hadoop/common/hadoop-
3.1.2/hadoop-3.1.2.tar.gz
mv hadoop-3.1.2 hadoop
export HADOOP_HOME=/home/hadoop/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
Kemudian, setelah selesai save dan tutup file. dan jalankan perintah berikut
agar perubahan segera diterapkan.
source ~/.bashrc
Sekarang edit $HADOOP_HOME/etc/hadoop/hadoop-env.sh file dan set
variabel environment JAVA_HOME. Ubah jalur JAVA sesuai pengaturan
instalasi di sistem Anda. Jalur ini dapat bervariasi sesuai versi sistem operasi
dan sumber instalasi Anda. Jadi pastikan Anda menggunakan jalur yang
benar.
nano $HADOOP_HOME/etc/hadoop/hadoop-env.sh
kemudian tambahkan entri berikut ini.
export JAVA_HOME=/usr/lib/jvm/java-11-oracle
cd $HADOOP_HOME/etc/hadoop
Edit core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
Edit hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>file:///home/hadoop/hadoopdata/hdfs/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>file:///home/hadoop/hadoopdata/hdfs/datanode</value>
</property>
</configuration>
Edit mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
Edit yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
/************************************************************
...
...
...
/************************************************************
************************************************************/
cd $HADOOP_HOME/sbin/
Kemudian eksekusi skrip start-dfs.sh.
./start-dfs.sh
Kemudian eksekusi skrip start-yarn.sh.
./start-yarn.sh
http://ip-atau-domain:9870/
Sekarang akses port 8042 untuk mendapatkan informasi tentang cluster dan
semua aplikasi
http://ip-atau-domain:8042/
Akses port 9864 untuk mendapatkan detail tentang node Hadoop Anda.
http://ip-atau-domain:9870/explorer.html#/user/hadoop/logs/
7.4 – Sekarang salin direktori log untuk sistem file hadoop didistribusikan ke
sistem file lokal.
ls -l /tmp/logs/