Setting Apache Spark Cluster (bahasa)

Syarif Hidayatullah
2 min readSep 7, 2020

Kali ini kita akan mencoba membuat apache spark cluster. Pastikan sebelumnya sudah menginstall hadoop dan spark standalone terlebih dahulu.

Jika belum, klik tautan ini untuk tutorial menginstall spark.

download dan install spark di dua server dalam satu jaringan, misalkan:

10.116.0.2 dengan hostname pd-master
10.116.0.3 dengan hostname pd-slave-01

pastikan keduanya dapat terhubung melalui ssh.

ssh pd-master
ssh pd-slave-01

Jika belum dapat ssh, maka setting terlebih dahulu public key di masing-masing server (~/.ssh). Pastikan public key dirsa_id.pub ada di authorized_keys file baik master maupun slave.

Lalu pastikan juga di /etc/hosts sudah ditambahkan ip beserta host untuk master dan slave nya.

/etc/hosts

Jika sudah, sekarang tambahkan list hostname slaves di spark/conf/slaves

/spark/conf/slaves

setelah itu jalankan /spark/sbin/start-all.sh di master dan slave.

Lalu open web ui spark master di <alamat_ip_spark_master>:8080.

spark UI

Jika terdapat 2 workers, berarti sudah benar. Jika belum, cek kembali log saat running /spark/sbin/start-all.sh tadi. Case utama biasanya karena koneksinya belum terhubung antara slave dan master. jadi pastikan kamu sudah bisa ssh baik ke master maupun ke slave.

--

--