Perbandingan Menggunakan Metode Hadoop Archive dengan Combine File Input Format untuk Mengatasi File Berukuran Kecil di HDFS

ARIF SUMANGGARA NAINGGOLAN

Informasi Dasar

75 kali
21.04.405
004
Karya Ilmiah - Skripsi (S1) - Reference

Abstrak

Hadoop adalah platform open source berbasis Java yang berada di bawah lisensi Apache dan digunakan untuk mendukung aplikasi yang berjalan pada big data. HDFS merupakan komponen dari Hadoop yang dapat menyimpan file yang sangat besar dengan akses data streaming dan berjalan pada kelompok komoditas perangkat keras. HDFS dirancang untuk menangani file besar dalam jumlah banyak yang ukuran file nya hingga petabyte, exabyte. Di era sekarang ini, Big Data menjadi topik yang menarik untuk dibahas dengan bentuk data yang berbagai variety,velocity dan volume data. Di dalam Big Data terdapat file-file yang berukuran besar dan kecil yang akan di proses HDFS. Akan tetapi terdapat masalah yang di temukan ketika HDFS menangani file kecil dalam jumlah banyak, sehingga terdapat beberapa solusi yang ditawarkan untuk menangani file kecil dalam jumlah banyak di HDFS yaitu dengan menggunakan metode HAR (Hadoop Archive) dan Combine File Input Format. Dengan kedua metode ini maka file kecil di HDFS teratasi. kemudian di lakukan perbandingan yang mana metode yang digunkan menghasilkan penggunaan block dan waktu pemrosesan yang di gunakan sedikit.

Kata kunci : Hadoop, HDFS, HAR, combine file input format, file kecil, block.

Subjek

TELEMATICS
 

Katalog

Perbandingan Menggunakan Metode Hadoop Archive dengan Combine File Input Format untuk Mengatasi File Berukuran Kecil di HDFS
 
 
Indonesia

Sirkulasi

Rp. 0
Rp. 0
Tidak

Pengarang

ARIF SUMANGGARA NAINGGOLAN
Perorangan
SETYORINI, ERWID MUSTHOFA JADIED
 

Penerbit

Universitas Telkom, S1 Informatika
Bandung
2021

Koleksi

Kompetensi

 

Download / Flippingbook

 

Ulasan

Belum ada ulasan yang diberikan
anda harus sign-in untuk memberikan ulasan ke katalog ini