Cara Memasang dan Konfigurasi Apache Hadoop di Centos & Fedora

Cara Memasang dan Konfigurasi Apache Hadoop di Centos & Fedora

Setelah berada di sekitar beberapa waktu sekarang, Hadoop telah menjadi salah satu penyelesaian data besar sumber terbuka yang paling popular. Ia memproses data dalam kelompok dan terkenal dengan keupayaan pengkomputeran yang berskala, kos efektif, dan diedarkan. Ini adalah salah satu rangka kerja sumber terbuka yang paling popular dalam analisis data dan ruang penyimpanan. Sebagai pengguna, anda boleh menggunakannya untuk menguruskan data anda, menganalisis data itu, dan menyimpannya semula - semuanya dengan cara automatik. Dengan Hadoop dipasang pada sistem fedora anda, anda boleh mengakses perkhidmatan analitik penting dengan mudah.

Artikel ini merangkumi cara memasang Apache Hadoop di Centos dan Fedora Systems. Dalam artikel ini, kami akan menunjukkan kepada anda cara memasang Apache Hadoop di Fedora untuk penggunaan tempatan serta pelayan pengeluaran.

1. Prerequsities

Java adalah keperluan utama untuk menjalankan Hadoop pada mana -mana sistem, jadi pastikan anda memasang Java pada sistem anda menggunakan arahan berikut. Sekiranya anda tidak memasang Java pada sistem anda, gunakan salah satu pautan berikut untuk memasangnya terlebih dahulu.

  • Cara Memasang Java 8 di CentOS/RHEL 7/6/5

2. Buat pengguna Hadoop

Kami mengesyorkan membuat akaun biasa (atau akar) untuk Hadoop bekerja. Untuk membuat akaun menggunakan arahan berikut.

Adduser Hadoop Passwd Hadoop 

Setelah membuat akaun, ia juga perlu menyediakan SSH berasaskan utama ke akaunnya sendiri. Untuk melakukan penggunaan ini melaksanakan arahan berikut.

su -Hadoop ssh -keygen -t rsa -p "-f ~/.ssh/id_rsa kucing ~/.SSH/ID_RSA.pub >> ~/.SSH/Authorized_keys chmod 0600 ~/.SSH/Authorized_keys 

Mari sahkan log masuk berasaskan kunci. Perintah di bawah tidak boleh meminta kata laluan tetapi kali pertama ia akan meminta untuk menambah RSA ke senarai tuan rumah yang diketahui.

SSH Localhost Exit 

3. Muat turun Hadoop 3.1 arkib

Dalam langkah ini, muat turun Hadoop 3.1 fail arkib sumber menggunakan arahan di bawah. Anda juga boleh memilih cermin muat turun alternatif untuk meningkatkan kelajuan muat turun.

cd ~ wget http: // www-eu.Apache.Org/Dist/Hadoop/Common/Hadoop-3.1.0/Hadoop-3.1.0.tar.GZ TAR XZF HADOOP-3.1.0.tar.GZ MV Hadoop-3.1.0 Hadoop 

4. Persediaan Mode-Distribusi Hadoop Pseudo

4.1. Persediaan Pembolehubah Persekitaran Hadoop

Pertama, kita perlu menetapkan penggunaan pembolehubah persekitaran oleh Hadoop. Edit ~/.Bashrc fail dan tambah nilai berikut pada akhir fail.

eksport hadoop_home =/home/hadoop/hadoop eksport Hadoop_install = $ Hadoop_Home Export Hadoop_Mapred_Home = $ Hadoop_Home Export Hadoop_Common_Home = $ Hadoop_Home Export Hadoop_Hdfs_Home = $ HADOOP_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_HOME_Home HADOOP_HOME/SBIN: $ HADOOP_HOME/BIN 

Sekarang gunakan perubahan dalam persekitaran berjalan semasa

sumber ~/.Bashrc 

Sekarang edit $ Hadoop_Home/etc/Hadoop/Hadoop-ENV.sh fail dan tetapkan Java_home pembolehubah persekitaran. Tukar laluan Java mengikut pemasangan pada sistem anda. Laluan ini mungkin berbeza mengikut versi sistem operasi dan sumber pemasangan anda. Oleh itu, pastikan anda menggunakan jalan yang betul.

Eksport java_home =/usr/lib/jvm/java-8-oracle 

4.2. Persediaan Fail Konfigurasi Hadoop

Hadoop mempunyai banyak fail konfigurasi, yang perlu mengkonfigurasi mengikut keperluan infrastruktur Hadoop anda. Mari kita mulakan dengan konfigurasi dengan persediaan kluster nod tunggal Hadoop asas. Pertama, navigasi ke lokasi di bawah

CD $ Hadoop_Home/etc/Hadoop 

Edit tapak teras.XML

  fs.lalai.Nama HDFS: // Localhost: 9000   

Edit tapak HDFS.XML

  DFS.Replikasi 1 DFS.nama.Fail dir: /// Home/Hadoop/Hadoopdata/HDFS/Namenode DFS.data.Fail dir: /// Home/Hadoop/Hadoopdata/HDFS/DataNode   

Edit tapak Mapred.XML

  MapReduce.Rangka Kerja.Nama benang   

Edit tapak benang.XML

  Benang.Nodemanager.Aux-Services MapReduce_Shuffle   

4.3. Format namenode

Sekarang format namenode menggunakan arahan berikut, pastikan direktori penyimpanan adalah

HDFS namenode -Format 

Output Contoh:

Amaran:/rumah/hadoop/hadoop/log tidak wujud. Mencipta. 2018-05-02 17: 52: 09,678 Maklumat Namenode.Namenode: startup_msg: /*********************************************** *************** startup_msg: Memulakan namenode startup_msg: host = tecadmin/127.0.1.1 startup_msg: args = [-format] startup_msg: versi = 3.1.0 ... 2018-05-02 17: 52: 13,717 maklumat biasa.Penyimpanan: Direktori Penyimpanan/Rumah/Hadoop/Hadoopdata/HDFS/Namenode telah berjaya diformat. 2018-05-02 17: 52: 13,806 Maklumat Namenode.FSImageFormatProtobuf: Menyimpan Fail Imej/Laman Utama/Hadoop/Hadoopdata/HDFS/Namenode/Current/FSImage.CKPT_00000000000000000000000 Menggunakan No Mampatan 2018-05-02 17: 52: 14,161 Info Namenode.FSImageFormatProtobuf: Fail Imej/Laman Utama/Hadoop/Hadoopdata/HDFS/Namenode/Current/FSImage.CKPT_000000000000000000000 saiz 391 bait disimpan dalam 0 saat . 2018-05-02 17: 52: 14,224 Info Namenode.NnstorageretentionManager: akan mengekalkan 1 imej dengan txid> = 0 2018-05-02 17: 52: 14,282 Info Namenode.Namenode: shutdown_msg: /*********************************************** ***************** shutdown_msg: Menutup namenode di Tecadmin/127.0.1.1 ******************************************************* *************/ 

5. Mula cluster Hadoop

Mari mulakan cluster Hadoop anda menggunakan skrip yang disediakan oleh Hadoop. Cukup navigasi ke direktori $ hadoop_home/sbin anda dan laksanakan skrip satu demi satu.

CD $ HADOOP_HOME/SBIN/ 

Sekarang lari start-dfs.sh Skrip.

./start-dfs.sh 

Output Contoh:

Memulakan Namenodes di [localhost] bermula Datanodes Memulakan namenode menengah [Tecadmin] 2018-05-02 18: 00: 32,565 Warn Util.NativeCodeLoader: Tidak dapat memuatkan Perpustakaan Native-Hadoop untuk platform anda ... menggunakan kelas Builtin-Java yang berkenaan 

Sekarang lari Start-Yarn.sh Skrip.

./Start-Yarn.sh 

Output Contoh:

Memulakan ResourceManager Memulakan Nodemanagers 

6. Akses Perkhidmatan Hadoop dalam Penyemak Imbas

Hadoop Namenode bermula pada port 9870 Default. Akses pelayan anda di port 9870 di pelayar web kegemaran anda.

http: // svr1.Tecadmin.Bersih: 9870/ 

Sekarang akses port 8042 untuk mendapatkan maklumat mengenai kelompok dan semua aplikasi

http: // svr1.Tecadmin.Bersih: 8042/ 

Port Akses 9864 untuk mendapatkan butiran mengenai nod Hadoop anda.

http: // svr1.Tecadmin.Bersih: 9864/ 

7. Ujian persediaan nod tunggal Hadoop

7.1. Buat direktori HDFS diperlukan menggunakan arahan berikut.

BIN/HDFS DFS -MKDIR/Pengguna BIN/HDFS DFS -MKDIR/USER/HADOOP 

7.2. Salin semua fail dari sistem fail tempatan/var/log/httpd ke sistem fail yang diedarkan Hadoop menggunakan arahan di bawah

BIN/HDFS DFS -PUT/VAR/LOG/APACHE2 LOGS 

7.3. Semak Hadoop Sistem Fail Mengedarkan dengan membuka URL di bawah URL dalam penyemak imbas. Anda akan melihat folder Apache2 dalam senarai. Klik pada nama folder untuk dibuka dan anda akan menemui semua fail log di sana.

 http: // svr1.Tecadmin.Bersih: 9870/Explorer.html#/user/hadoop/log/ 

7.4 - Sekarang salin direktori log untuk sistem fail yang diedarkan Hadoop ke sistem fail tempatan.

bin/hdfs DFS -get logs/tmp/logs ls -l/tmp/log/ 

Anda juga boleh menyemak tutorial ini untuk menjalankan contoh kerja WordCount MapReduce menggunakan baris arahan.