Pada era sekarang ini, Big Data memiliki peran yang sangat penting pada bidang teknologi, kesehatan, keuangan, dan lainnya. Dalam menangani data yang berukuran kecil, biasa digunakan data management sederhana, namun dalam menangani data yang berukuran besar dibutuhkan sebauh data management yang lebih baik, salah satu contoh data management yang baik dalam menangani kasus big data adalah Hadoop. Hadoop merupakan sebuah framework software yang bersifat open source dan berbasis java. Hadoop terdiri atas dua arsitektur utama, yaitu MapReduce dan Hadoop Distributed File System (HDFS). MapReduce terdiri atas Map dan Reduce yang digunakan untuk pemrosesan data, sementara Hadoop Distributed File System (HDFS) adalah tempat atau direktori dimana data hadoop dapat disimpan[3]. Dalam menjalankan sebuah job yang memiliki keragaman karakteristik, diperlukan sebuah job scheduler Hadoop memiliki bermacam-macam job scheduler untuk mengatur job yang sesuai dengan karakteristiknya. Salah satu scheduler yang paling sering digunakan ialah Fair Scheduler.
Fair Scheduler menggunakan sebuah metode yang menentukan suatu jobs akan mendapatkan resource yang sama dengan jobs yang lain, dengan tujuan meningkatkan performa dari segi Average Completion Time[14]. Hadoop Fair Sojourn Protocol Scheduler adalah sebuah algoritma scheduling dalam Hadoop yang dapat melakukan scheduling berdasarkan ukuran jobs yang diberikan[5].
Pada hasil pengujian menunjukan Hadoop Fair Sojourn Protocol Scheduler memiliki performansi lebih baik dibandingkan Fair Scheduler baik dari penanganan average completion time sebesar 9,31% dan job throughput sebesar 23,46%. Kemudian untuk Fair Scheduler unggul dalam parameter task fail rate sebesar 23,98%.