Perpustakaan judul masih dalam tahap pengembangan, admin siap menampung kritik dan saran
KONFIGURASI PENGGABUNGAN HADOOP DISTRIBUTED FILE SYSTEM (HDFS) DENGAN CASSANDRA FILE SYSTEM (CFS) UNTUK PENYIMPANAN DATA BESAR
TRI ADI PUTRA RAMDANI (2016) | Skripsi | -
Bagikan
Ringkasan
Saat ini pertumbuhan data begitu cepat, dalam beberapa tahun saja jumlah data yang harus dikelola oleh perusahan-perusahaan IT terkemuka didunia bisa mencapai ukuran Peta Byte. Salah satu teknologi yang ditawarkan untuk menangani laju pertumbuhan data dengan media penyimpanan adalah HDFS (Hadoop Distributed File System). HDFS menggunakan konsep blok-blok data dari sebuah file yang disimpan dalam beberapa mesin yang saling terhubung dalam sebuah cluster. Sedangkan Cassandra File System (CFS) adalah sebuah proses yang memudahkan dalam menjalankan analisis data yang besar secara cepat. Cassandra File System (CFS) dirancang untuk menangani jumlah yang sangat besar data yang tersebar di banyak server komoditas sekaligus memberikan layanan sangat tersedia tanpa titik tunggal kegagalan. Dari hasil menggabungkan dua sistem yang berbeda (Hadoop-CFS) ini menunjukkan bahwa mampu menampung data besar dan menganalisis data secara cepat.
Ringkasan Alternatif
Now the growth of data very fast, just a few years the number of data have to be managed by the worldÃâs leading IT companies can reach the size of Peta Byte. One of technologies being offered to handle that problem is HDFS (Hadoop Distributed File System). HDSF used the concept of blocks of data from a file which is stored in some machines are interconnected in a cluster. While Cassandra File System (CFS) is a process that making easy in running the analysis of large data quickly. Cassandra File System (CFS) is designed to handle very large amounts of data spread across many commodity servers while providing a highly available service with no single point of failure. In this thesis the author will be tried to combine two different systems (HDFS-CFS) which will be used as a server of a big data.