(Jurnal) Implementasi dan Analisis Server Clustering Menggunakan Cluster File System pada SAN...
Transcript of (Jurnal) Implementasi dan Analisis Server Clustering Menggunakan Cluster File System pada SAN...
IMPLEMENTASI DAN ANALISIS
SERVER CLUSTERING MENGGUNAKAN CLUSTER FILE SYSTEM PADA SAN (STORAGE AREA
NETWORK) BERBASIS iSCSI UNTUK LAYANAN CLOUD STORAGE
Firdauska Darya Satria S.Sy.1 Tody Ariefianto W, ST,MT.2 Leanna Vidya Yovita, ST.,M.T.3
1,2,3Fakultas Elektro dan Komunikasi – Universitas Telkom
Jl. Telekomunikasi, Dayeuh Kolot Bandung 40257 Indonesia
2014
ABSTRAK
Pada pengalokasian media penyimpanan skala jaringan (network storage), diperlukan konsep yang baru untuk meningkatkan
efektivitas komunikasi antar storage server dan client. Pada network storage konvensional, setiap node berkomunikasi dengan
storage server menggunakan single file image yang terdapat pada server sehingga memungkinkan terjadinya kegagalan node
tunggal (single point failure) yang mengakibatkan node server untuk layanan tertentu tidak dapat diakses sama sekali.
Proses transfer file pada server dapat dimodifikasi dengan mengubah mekanisme menjadi end user-initiator-storage server dengan
konsep redundant server initiator sebagaimana konsep yang terdapat pada Storage Area Network. Dengan demikian hal tersebut
membuat setiap initiator node yang ingin mengakses storage server harus memiliki file system yang sama dan mampu
berkoordinasi satu sama lain. Untuk mengatasi hal tersebut diimplementasikan Cluster File System yang terpasang di setiap
initiator node yang akan mengakses storage server. Mekanisme ini mendukung High Availability Clustering, setiap cluster node
dapat mengakses dalam bentuk block-data pada storage server, dan file system pada setiap node merupakan Cluster File System
yang dapat melakukan interkoneksi antar server dengan mekanisme fencing dan locking.
Pada Storage Area Network (SAN), Cluster File System yang diuji pada tugas akhir ini, memiliki failover delay yang bervariasi
antara 6-12 detik yang berpotensi menjadikan proses transfer file menjadi terputus, memiliki kemampuan IOPS yang seragam
dengan nilai bervariasi bergantung kepada spesifikasi hardware yang terdapat pada node server dan mengakibatkan penggunaan
resource memory dan CPU yang lebih besar pada saat menggunakan block data dengan ukuran yang lebih kecil.
Kata kunci: Storage, File System, Cluster.
ABSTRACT
Due to storage media allocation in network scale, it should be another approach to increase the communication performance
between storage server and client. Since in some ordinary network storage, each node communicate to storage server using single
file image exists on server side that may cause single point of failure that make server node fail to deliver any service at all.
File transfer process between nodes can be modified with changing the mechanism. Large file size may interference the
performance of the communication between node.
This case may be solved by switching the mechanism to be end user-initiator-storage server with redundant server initiator concept
as the concept is already existing in Storage Area Network. That is the reaseon that every initiator node accessing the storeage
server need to have the same file system image dan coordinates one each other in the cluster. To solve those problems, then we
implement Cluster File System which has been installed on every initiator node accessing the same storage. This mechanism
supports High Availability Clustering, that every node may access the storage in data-block, and the File System on every node is
Cluster File System which capable to interconnect among server using fencing and locking mechanism.
In Storage Area Network (SAN), Cluster File System tested on this paper, gives various failover delay from 6 to 12 second whoch
potentially make the file transfer process disputed. The IOPS performance on each node are similarly has the same thread pattern
with various throughput result depends on the hardware of each node cluster, and the system consumed more memory and CPU in
order to transfer using smaller block-data for each file.
Although this system can be some solution so every node may still accessing Storage Server and avoiding of single point failure.
Keywords: Storage, File System, Cluster 1. Pendahuluan
1.1 Latar Belakang
Perkembangan teknologi media penyimpanan data network yang ada
saat ini ialah DAS (Direct Attached Storage), NAS (Network
Attached Storage), dan SAN (Storage Area Network). Diantara ketiga
konsep storage diatas, SAN dengan protokol iSCSI ialah konsep
storage yang paling mendukung layanan Cloud Storage, dikarenakan
protokol iSCSI dapat berjalan pada jaringan internet pada umumnya,
dengan kata lain SAN adalah konsep Storage yang sangat cocok
diterapkan pada Cloud Computing. Dikarenakan SAN dapat
melakukan transfer data kepada server dalam bentuk block data
bukan dalam bentuk transfer file, sehingga tidak membebani Storage
server dan berimplikasi terhadap kecepatan, kehandalan dan
keamanan data.
Meskipun demikian, perlu dilakukan analisis terhadap
kinerja server terhadap storage server yang mengalami pembebanan
saat diakses secara simultan oleh banyak user. Sehingga akses user
terhadap media storage senantiasa terjaga meskipun terdapat server
yang failed. Untuk itu digunakanlah konsep Cluster File System pada
cluster server sebagai antisipasi apabila suatu saat server sedang
mengalami kondisi down, aktifitas komunikasi data tidak terganggu
karena trafik dapat dialihkan melalui server yang lain tanpa disadari
oleh user.
1.2 Tujuan
Tujuan dari penulisan tugas akhir ini adalah:
1. Mampu menerapkan konsep Cluster File System pada server
yang dapat menunjang layanan Cloud Storage berbasis
iSCSI SAN.
2. Mengetahui dampak dari penggunaan Cluster File System
pada kinerja server berdasarkan parameter IOPS, CPU load,
CPU target dan initiator, delay failover, dan delay failback.
3. Mampu mengimplementasikan konsep Cluster File System
pada Storage Area Network sebagai pendukung infrastruktur
layanan Cloud Storage.
4. Mampu melakukan interkoneksi antar server pada iSCSI
Inititator dan storage server sebagai iSCSI Target..
1.3 Batasan Masalah
Permasalahan pada tugas akhir ini akan dibatasi pada hal-hal berikut:
1. Menerapkan metode Storage Area Network sebagai konsep
Cloud Storage dengan memanfaatkan protokol FTP
2. Implementasi menggunakan GFS2 dari Sistem Operasi
CentOS 6.5
3. Hanya dilakukan pada jaringan LAN skala kecil
4. Storage Area Network mengunakan protokol iSCSI.
5. Menggunakan iSCSI sebagai protokol transfer data antar
node
6. Terbatas pada konsep server clustering.
7. Terbatas pada penggunaan Cluster File System.
8. Tidak melakukan virtualisasi ataupun hypervisor pada
storage server.
9. Storage server dibangun dengan sederhana dari PC Server.
10. Parameter yang diukur adalah IOPS (Input Output pers
Second), Beban kerja CPU (CPU Load) target dan intitator,
response time, delay failover dan delay failback.
11. Tidak membahas aspek trafik secara mendalam.
12. Tidak membahas aspek keamanan sistem dan jaringan.
13. Tidak membahas secara mendalam sisi komunikasi dan
transmisi..
14. Tidak melakukan konfigurasi RAID
1.4 Rumusan Masalah
Permasalahan-permasalahan yang akan dibahas pada tugas akhir ini
meliputi:
1. Bagaimana menerapkan konsep Cluster File System pada
server yang dapat menunjang layanan Cloud Storage
berbasis iSCSI SAN.
2. Apa dampak dari penggunaan Cluster File System pada
kinerja server berdasarkan parameter IOPS, CPU load, CPU
target dan initiator, delay failover, dan delay failback.
3. Bagaimana mengimplementasikan konsep Cluster File
System pada Storage Area Network sebagai layanan Cloud
Storage.
Bagiamana melakukan interkoneksi antar server pada iSCSI
Inititator dan storage server sebagai iSCSI Target
2. DASAR TEORI
2.1 Server[10]
Server adalah sebuah sistem komputer yang menyediakan jenis
layanan tertentu dalam sebuah jaringan komputer. Terkadang istilah
server disebut sebagai web server, namun pada umumnya orang lebih
suka menyebutnya sebagai ‘server’ saja. Sebuah server didukung
dengan prosesor yang bersifat scalable dan RAM yang besar, juga
dilengkapi dengan sistem operari khusus. Sistem operasi ini berbeda
dengan sistem operasi biasa.
Sistem operasi dari server adalah sistem operasi jaringan atau dikenal
dengan network operating system. Server juga bertugas untuk
menjalankan software administratif. Yakni software yang mengontrol
akses terhadap jaringan dan sumber daya yang terdapat di dalamnya.
Hal ini termasuk file maupun perangkat yang digunakan bersamaan
(shared) dan memberikan akses kepada workstation anggota jaringan.
2.2 Computer Cluster[5]
Computer cluster adalah sekumpulan komputer independen yang
beroperasi dan terlihat oleh klien jaringan tersebut seolah-olah
komputer tersebut adalah satu buah unit komputer. Sedangkan yang
dimaksud dengan Server Clustering ialah menggunakan lebih dari
satu server yang menyediakan redundant interconnections, sehingga
user hanya mengetahui ada satu sistem server yang tersedia dan
komputer client tidak menyadari jika terjadi kegagalan pada sistem
server karena tersedianya server cadangan sebagai redundant atau
backup
2.3 Load Balancing Clustering [22]
Load Balancing adalah sebuah konsep untuk berbagi beban atau
muatan kerja dengan mendistribusikan request dari client ke beberapa
komputer server. cara kerja load balancer adalah menerima incoming
request dari client dan meneruskan request tersebut pada server
tertentu jika dibutuhkan. Load Balancing clustering berfungsi untuk:
o Membagi traffic jaringan menjadi individual request dan
menentukan server mana yang akan menerima
individual requests.
Me-monitor server yang ada serta memastikan server server tersebut
merespon traffic. Jika terjadi kegagalan pada sebuah server maka
server yang gagal tidak akan digunakan (menggunakan server yang
masih bekerja
2.4 Cloud Storage[10]
Cloud Storage adalah media penyimpanan data yang dapat diakses
oleh para penggunanya lewat jaringan internet. Tentu saja filenya
berada di storage server dimana kita membuat akun cloud storage.
Misalnya diilustasikan seperti ini, jika seorang web designer
memerlukan banyak gambar, font, ilustrasi, flash dll,supaya untuk
memudahkannya bekerja dimana saja, maka akan menyimpannya di
cloud storage.
Memang pada dasarnya terdapat banyak pilihan untuk menyimpan
data-data. Dapat disimpan pada media penyimpanan fisik seperti
harddisk, CD, flashdisk. Tapi untuk sebagian pengguna komputer hal
tersebut mulai menjadi penghalang efisiensi kerja saat data-data yang
dibutuhkan tak dapat diakses. Misalnya flashdisk yang tertinggal atau
keeping CD yang rusak.
Saat data disimpan secara ‘cloud’, data-data tersebut dapat dengan
mudah diakses lewat jaringan internet. Tidak perlu mengambil laptop
atau flashdisk. Yang perlu ditekankan dari keuntungan teknologi ini
adalah kemudahan mengakses data kita dimana saja, kapan saja, dan
menggunakan perangkat apa saja
2.5 Storage Area Network[6]
SAN adalah sebuah jaringan yang bertindak sebagai jalur transfer
data antara sistem komputer dan elemen penyimpanan. Sebuah SAN
terdiri dari infrastruktur komunikasi yang menyediakan koneksi fisik
dan lapisan manajemen yang mengatur koneksi, unsur-unsur storage,
dan sistem komputer sehingga transfer data jadi jauh lebih aman dan
lebih kuat. Sebuah SAN juga dapat menjadi sistem penyimpanan
yang terdiri dari perangkat penyimpanan, sistem komputer, peralatan
network, dan perangkat-perangkat lunak lainnya yang berkomunikasi
melalui jaringan.
SAN mampu menyediakan kualitas kecepatan yang baik antara server
dan storage. Karena hal inilah terkadang SAN biasa disebut juga
sebagai “Jaringan di Belakang Server”.
2.6 iSCSI (Internet Small Computer System Interface)[4]
iSCSI merupakan protokol yang bekerja pada transport layer. Hal ini
menggambarkan tentang protokol SCSI yang dapat bekerja melalui
jaringan TCP/IP. iSCSI memungkinkan prosedur yang bekerja pada
protokol SCSI biasa agar dapat dikirimkan end-to-end melewati
jaringan LAN, WAN, ataupun Internet.
iSCSI dikembangkan oleh IETF (Internet Engineering Task Force)
dengan kode nomor RFP 3720. iSCSI merupakan salah satu
pendekatan yang digunakan untuk melakukan transmisi data melalui
jaringan IP, metode ini merupakan alternatif dari metode Fibre
Channel (FCIP) yang dikenal mahal
3. Perancangan Sistem dan Implementasi
3.1.1 Menentukan topologi jaringan yang digunakan pasa iSCSI
SAN Arsitektur dan Titik Pengukuran
Gambar 3.2 Topologi sistem yang dirancang
Storage Area Network yang di implementasikan merupakan
suatu jaringan tersendiri yang terisolasi dengan jaringan luar. Hal itu
dimaksudkan agar tidak terjadi satruasi trafik antara trafik I/O iSCSI
dengan trafik lain yang berasal dari jaringan LAN lain sehingga dapat
memberikan hasil pengujian troughput yang lebih optimal.
3.1.2 Melakukan instalasi dan konfigurasi pada iSCSI target
Pada tahap ini iSCSI Target yaitu Storage Server yang
berupa PC Storage akan dikonfigurasi menggunakan OS (Operating
System) yang dapat menunjang implementasi Cluster File System dan
bertindak sebagai SAN yang diakses melalui iSCSI Initiator. Dalam
Tugas Akhir ini, OS yang digunakan ialah CentOS 6.5 dengan GFS2
(Global File System2) pada Initiator yang mendukung implementasi
Cluster File System.
3.1.3 Melakukan instalasi dan konfigurasi pada iSCSI Inititator
Pada tahap ini adalah melakukan konfigurasi tiga buah node
sebagai iSCSI Initiator menggunakan OS (Operating System) yang
dapat menunjang implementasi Cluster File System. Setelah instalasi
package iSCSI Initiator, maka dilakukan penamaan pada setiap node
dengan nama node 1, node 2, dan node3. Pada setiap node dilakukan
instalasi “High Availability” packages dan “Reselient Storage”
packages yang terdapat didalam cd repository CentOS 6.5, termasuk
dengan GFS (Global File System) sehingga memungkinkan
mekanisme fencing dan locking antar node.
3.1.4 Melakukan interkoneksi antar node
Setelah iSCSI Target dan Inititator berhasil dikonfigurasi,
maka dilakukan konfigurasi lanjutan interkoneksi untuk menjamin
bahwa sistem dapat berjalan sebagaimana semestinya. Konfigurasi
tersebut ialah proses discovery dan login dari Initiator menuju
Target.
Setelah berhasil login ke dalam iSCSI Target maka
dilakukan cluster configuration antar iSCSI Initiator menggunakan
Luci Server hal ini dilakukan untuk mempermudah proses konfigurasi
melalui aplikasi berbasis web yang terdapat pada Luci Server
# yum -y --disablerepo=\* --enablerepo=c6-media install luci
3.1.6 Implementasi skenario pengujian yang ingin dilakukan
Pada tahap ini akan dilakukan skenario pengujian untuk mendapatkan
data-data yang akan dianalisa meliputi parameter IOPS, CPU Load
pada target dan initiator, delay failover/delay failback, dan
throughput.
3.1.7 Analisa hasil keluaran berdasarkan parameter yang diuji
Dari masing-masing keluaran tiap variabel kecepatan akan
menunjukkan hasil apakah koneksi mengalami perubahan performa
atau tidak. Selanjutnya akan di analisa dan ditarik kesimpulan
berdasarkan hasil pengujian yang
3.2 Keluaran yang diharapkan
Dari pelaksanaan Tugas Akhir ini diharapkan keluaran dari
hasil simulasi yang menunjukkan kenaikan performansi dari Cluster
File System pada sistem Cloud Storage. Untuk sistem SAN dengan
protokol iSCSI diharapkan dapat diintegrasikan dengan Cluster File
System sehingga dapat mendukung layanan Cloud Storage pada
teknologi Cloud
3.3 Kondigurasi Hardware
a. Perangkat Utama
1. iSCSI Initiator
3 buah iSCSI Initiator berfungsi sebagai cluster server
yang akan mengakses storage server secara simultan
menggunakan cluster file system. Cluster server dapat
diperlakukan sebagai web server, ftp server, database
server, dsb. Namun dalam kasus Cloud Storage ini, penulis
akan menerapkan sistem sebagai FTP Server karena
dianggap merepresentasikan konsep Cloud Storage secara
teknikal.
2. Luci Server
Luci server berfungsi sebagai Cluster Management control,
mengendalikan cluster server yang aktif dan yang non-aktif
sehingga menjaga konsistensi cluster file system dan juga
mempermudah Cluster Management.
3. iSCSI Target
iSCSI Target berfungsi sebagai Storage Server yang
diakses melalui iSCSI Initiator sehingga harddisk dalam
Target dapat tampil seolah-olah harddisk lokal pada
Initiator.
b. Perangkat Penunjang
1. Hardware
Perangkat jaringan yang dibutuhkan ialah:
a. Gigabit Ethernet Switch yang akan digunakan
sebagai SAN Switch
2. Software
a. CentOS 6.5
b. Luci Cluster Management
c. Redhat “High Availability” dan “Resilient
Storage” packages.
d. IOzone
Software ini berfungsi untuk melakukan
pengujian berupa pembangkitan trafik I/O pada
media penyimpanan yang ada pada server.
e. Wireshark
Program ini digunakan untuk melakukan capture paket data didalam
jaringan sehingga memiliki fungsi untuk melakukan diagnosa
keadaan jaringan yang sedang berjalan. Paket yang dicapture akan
ditamppilkan beserta dengan parameter yang lain secara lengkap,
seperti protocol pada paket data, payload paket data, waktu terima,
waktu kirim, alamat tujuan dan sumber. Program ini menjadi sangat
fleksibel karena dapat melakukan capture paket data pada semua
layer OSI.
3.4 Skenario Pengujian
Software yang digunakan untuk pengujian atau benchmark
adalah Iozone untuk benchmark Input/Output per second (IOPS).
Beberapa skenario yang akan dijalankan untuk menguji performansi
sistem dan juga menunjukkan berjalannya semua fitur yang
disediakan oleh iSCSI SAN yang telah dibuat adalah:
a. Skenario satu pengujian
Untuk mendapatkan hasil benchmark IOPS dan CPU load,
maka Iozone dijalankan pada masing-masing Initiator secara
bergantian untuk menguji kemampuan Cluster File System
pada direktori /GFS yang terdapat pada tiap-tiap cluster node
dengan kondisi Initiator sudah terhubung kepada Target
(Storage Server)
b. Skenario dua pengujian
Untuk mendapatkan hasil failover delay dan failback delay,
maka salah satu Initiator yang sedang digunakan akan
dinonaktifkan dengan cara memindahkan service dari salah
satu node kepada node lain. Mekanisme tersebut digunakan
untuk mengetahui apakah layanan yang berjalan pada suatu
node berhasil dialihkan ke node yang lain apabila terjadi
kegagalan. Hasil pengamatan dapat dilihat melalui syslog pada
node yang menjadi backup terhadap node yang failure.
c. Skenario tiga pengujian
Untuk mendapatakan hasil throughput sistem sebagai layanan
Cloud Storage, maka tiap-tiap Initiator diperlakukan sebagai FTP
server. Sehingga client atau user dapat mengakses file maupun data
pada Initiator melalui protokol FTP secara bersamaan. Nilai
throughput dapat diamati melalui wireshark pada user.
4. IMPLEMENTASI DAN ANALISIS
4.1 Analisis performansi iSCSI SAN
4.1.1 IOPS (Input Output per Second)
4.1.1.1 Sistematika Pengukuran
Pengukuran dilakukan dengan menggunakan software
IOzone. Pengukuran dilakukan pada setiap iSCSI Initiator dengan
ukuran block 4KB hingga 16384KB, dengan ukuran sebesar 1 GB.
Trafik yang dibangkitkan ialah trafik I/O antar iSCSI Initiator dengan
iSCSI Target. Pengukuran atau benchmark dilakukan secara
bergantian antara Initiator di node 1, node 2, dan node 3. Hal ini
ditujukan untuk mendapatkan hasil IOPS yang tidak dipengaruhi oleh
trafik dari sesama Initiator.
Proses benchmark terhadap File System dilakukan untuk
mengukur IOPS write dan IOPS Read pada GFS2 Cluster File System
yang terdapat pada cluster node. Benchmarking dilakukan melalui
aplikasi IOzone, yang bekerja dengan melakukan pengujian file
system menggunakan data yang di generate secara sequential
berdasarkan ukuran block data pada tiap-tiap ukuran file yang
berukuran 1 GB. Proses pengujian IOPS Write dan IOPS Read pada
setiap file juga dilakukan secara sequential mulai dari ukuran block 4
KB hingga 16 MB. Pengujian dilakukan pada iSCSI Initiator secara
bergantian untuk melihat kemampuan GFS2 Cluster File Systerm di
masing-masing node.
4.1.2 Hasil Pengukuran
Hasil pengukuran Read dan Write IOPS berulang pada Initiator node1
Gambar 4.1 Grafik IOPS file system tanpa cluster node 1
Gambar 4.2 Grafik IOPS cluster node 1
Pada hasil pengukuran IOPS Write dan Read di node 1,
performa file system terus cenderung meningkat mengikuti besar
block data yang digunakan sekitar 27000 – 65000 IOPS READ dan
24000 – 64000 IOPS Write. Hasil tersebut didapatkan pada block
dengan ukuran 4 KB hingga 256 KB. Dari hasil tersebut juga tampak
bahwa kemampuan Cluster File System GFS2 terus meningkat dari
27000 IOPS READ dan 24000 IOPS WRITE pada block 4 KB dan
mulai stabil pada kisaran 65000 IOPS READ dan 64000 IOPS
WRITE pada block dengan ukuran 32 KB.
Nilai IOPS READ kemudian cenderung stabil pada blok-
blok data dengan ukuran yang lebih besar dari 32 KB, yaitu IOPS
READ berada pada kisaran 62000 IOPS. Sedangkan pada hasil IOPS
WRITE terdapat penurunan performa yang signifikan hingga kisaran
30000 IOPS ketika pengukuran berada pada ukuran block 512 KB
dan seterusnya hingga ukuran block 16 MB.
Hasil pengukuran Read dan Write IOPS berulang pada
Initiator node2
Gambar 4.3 Grafik IOPS file system tanpa cluster node 2
Gambar 4.4 Grafik IOPS cluster node 2
Pada hasil pengukuran IOPS write dan Read di node 2,
performa file system cenderung menigkat mengikuti besar block data
yang diuji, yaitu mulai dari 58000 – 192000 IOPS READ dan 39000
– 190000 IOPS WRITE. Berdasarkan hasil pengujian, performa IOPS
Read file system pada masing file size semakin meningkat pada saat
ukuran block data semakin besar.
Hasil pengukuran Read dan Write IOPS berulang pada
Initiator node3
Gambar 4.5 Grafik IOPS file system tanpa cluster node 2
0
500000
1000000
1500000
2000000
IOPS Read & Write node 1 (1G)
Write
Read
0
20000
40000
60000
80000
IOPS node 1 (1G)
write
read
0
2000000
4000000
6000000
IOPS Read & Write node 2 (1G)
Write
Read
0
50000
100000
150000
200000
250000
IOPS node 2 (1G)
Writer
Reader
0
20000
40000
60000
80000
100000
4 8
16
32
64
12
8
25
6
51
2
10
24
20
48
40
96
81
92
16
38
4
IOPS Read & Write node 3 (1G)
Write
Read
Gambar 4.6 Grafik IOPS cluster node 3
Pada hasil pengukuran IOPS Read dan Write di node 3,
performa file system cenderung mengalami peningkatan performa
seiring dengan peningkatan block size yang diuji menggunakan
IOzone, yaitu mulai dari 12000 – 28000 IOPS Read dan 11000 –
27000 IOPS Write. Berdasarkan hasil pengujian menggunakan
IOzone, performa IOPS Read file system pada masing-masing block
memiliki trend yang serupa dengan hasil pengukuran pada node-node
sebelumnya.
Dari hasil tersebut juga tampak bahwa kemampuan Cluster
File System GFS2 terus meningkat dari 12000 IOPS READ dan
11000 IOPS WRITE pada block 4 KB dan mulai stabil pada kisaran
27000 IOPS READ dan 28000 IOPS WRITE pada block dengan
ukuran 16 KB.
Pada hasil pengukuran di node 3, tidak terdapat penurunan
performa yang signifikan pada block data dengan ukuran lebih besar
dari 16 KB. Hal tersebut dapat terlihat pada saat pengujian dilakukan
dengan ukuran blok data sebesar 1MB, terdapat penurunan sekitar
200 – 500 IOPS pada IOPS READ maupun IOPS WRITE.
Sedangkan hasil pengukuran pada iSCSI Initiator sebelum
menggunakan Cluster File System adalah sebagai berikut:
4.1.3 Analisis Hasil Pengukuran
Dari hasil pengujian diatas dapat terlihat bahwa pada
masing-masing node yang sudah terkonfigurasi dengan GFS2 Cluster
File System, performa IOPS Cluster File System cenderung
mengalami peningkatan seiring dengan besar block data yang
digunakan dalam proses IO Read dan Write. Namun tingkat performa
IOPS Cluster Files System antar node memiliki skala yang berbeda-
beda. Dilihat dari hasil pengukuran, kemampuan IOPS Read dan
Write tertinggi didapatkan pada GFS2 Cluster File System pada node
2 dibandingkan dengan node 1 dan node 3. Sedangkan performa
GFS2 Cluster File System pada node 3 menunjukkan nilai IOPS Read
dan Write yang paling rendah, namun memiliki stabilitas IOPS yang
cukup baik. Berbeda dengan node 1, meskipun memiliki nilai IOPS
yang dapat mencapai 60000 IOPS Read, Cluster File System pada
node 1 memiliki tingkat stabilitas yang paling rendah atau tidak
stabil, hal tersebut terlihat dari penurunan performa yang sangat
drastis ketika melakukan proses IO Write dan Read pada blok
berukuran 512 KB.
Perbedaan tersebut sangat jelas dipengaruhi oleh spesifikasi
hardware atau peripheral yang berbeda-beda antar iSCSI Initiator. Hal
tersebut dapat mempengaruhi tingkat IOPS Read dan Write karena
proses IO merupakan proses yang amat erat kaitannya dengan kinerja
hardware. Dimana proses IO adalah proses lalu lintas komunikasi
data yang terjadi antar peripheral. IOPS dipengaruhi oleh latency
yang berasal dari buffering pada memory (RAM) dan memory cache
pada CPU. Itulah sebabnya ketika terjadi perbedaan CPU ataupun
RAM hasil IOPS yang didapatkan bisa berbeda-beda meskipun
terhubung pada jaringan yang sama, pengaruh lain juga disebabkan
oleh penggunaan NIC yang berbeda-beda antar node..
4.2 Beban Processor (CPU Load)
4.2.1 Sistematika Pengukuran
Pengukuran dilakukan dengan menggunakan software
Iozone. Pengukuran dilakukan pada iSCSI Initiator dengan ukuran
block 4KB hingga 16384KB, dengan ukuran file sebesar 1 GB. Trafik
yang dibangkitkan ialah trafik I/O antar iSCSI Initiator dengan iSCSI
Target. Parameter yang diambil dalam pengukuran ini adalah
processor interrupt time untuk mengukur beban processor terhadap
proses I/O yang ditampilkan dalam bentuk persen. Pada iSCSI
initiator pengukuran dengan menggunakan Iozone.
4.2.2 Hasil Pengukuran
Hasil pengukuran CPU Load pada node 1:
Gambar 4.8 Grafik CPU Load tanpa cluster file system node 1
Gambar 4.9 Grafik CPU Load cluster node 1
Berdasarkan grafik CPU Load pada node 1, tampak bahwa
proses IO Write menggunakan resource CPU yang lebih besar
daripada yang digunakan pada proses IO Read meskipun pada blok 8
KB dan 16 KB resource untuk IO Read lebih besar daripada IO
Write. Dari masing-masing ukuran block, terlihat resource yang
0
10000
20000
30000
40000
4 8
16
32
64
12
8
25
6
51
2
10
24
20
48
40
96
81
92
16
38
4
IOPS node 3 (1G)
write
read
0
50
100
150
4 8
16
32
64
12
8
25
6
51
2
10
24
20
48
40
96
81
92
16
38
4
CPU Load Read & Write node 1 (1G)
Write
Read
0
10
20
30
40
50
4 8
16
32
64
12
8
25
6
51
2
10
24
20
48
40
96
81
92
16
38
4
CPU LOAD node 1 (1G)
write
read
digunakan lebih besar saat ukuran block jauh lebih kecil dari ukuran
file. Beban tertinggi sebesar 48% didapat pada block 4 KB.
Hasil pengukuran CPU Load pada node 2:
Gambar 4.10 Grafik CPU Load tanpa cluster file system node 2
Gambar 4.11 Grafik CPU Load cluster node 2
Berdasarkan grafik CPU Load pada node 2, tampak bahwa
rata-rata proses IO Write menggunakan resource CPU yang lebih
besar daripada yang digunakan pada proses IO Read. Dari masing-
masing ukuran block, terlihat resource yang digunakan lebih besar
saat ukuran block jauh lebih kecil dari ukuran file.
Hasil pengukuran CPU Load pada node 3:
Gambar 4.12 Grafik CPU Load tanpa cluster file system node 3
Gambar 4.13 Grafik CPU Load cluster node 3
Berdasarkan grafik CPU Load pada node 3, tampak bahwa
rata-rata proses IO Write menggunakan resource CPU yang lebih
besar daripada yang digunakan pada proses IO Read. Dari masing-
masing ukuran file, terlihat resource yang digunakan lebih besar saat
ukuran block jauh lebih kecil dari ukuran block.
4.2.3 Analisis Hasil Pengukuran
Berdasarikan hasil pengukuran rata-rata CPU load pada
Initiator (node 1,2 dan 3) terlihat kecenderungan kenaikan persentase
utilisasi CPU berbanding lurus dengan besar block size yang
digunakan selama proses benchmark menggunakan IOzone. Dari
keseluruhan node, meskipun memiliki tingkat persentase utilisiasi
yang berbeda, namun terdapat pola kenaikan yang serupa. Yakni
kenaikan CPU Load maksimal terjadi pada block size dengan ukuran
file sebesar 4 KB.
Pada ukuran block yang lebih kecil, prosesor akan
memproses instruksi lebih banyak untuk melakukan sebuah proses
I/O kedalam harddisk, prosesor juga menambahkan instruksi untuk
melakukan proses I/O melalui NIC yang juga meningkatkan beban
prosesor karena adanya proses tambahan tersebut. CPU mendapat
beban yang lebih besar karena terdapat overhead dari setiap paket
yang akan diproses. Hal tersebutlah yang menyebabkan beban CPU
yang meningkat pada block yang lebih kecil untuk file size yang sama
Hasil tersebut dapat dibandingkan dengan nilai CPU Load
tanpa cluster file system. Nilai CPU Load cenderung tidak mengalami
perubahan yang signifikan untuk besar file yang sama meskipun
menggunakan block size yang berbeda-beda. Hal ini dikarenakan
proses IOPS file yang terjadi pada internal CPU tidak melibatkan
block data dan tidak terdapat overhead pada transmisi paket data
melaui NIC.
4.3 Throughput
4.3.1 Sistematika Pengukuran
Semua cluster node terkonfigurasi sebagai FTP Server,
dengan Floating IP Address 192.168.1.100, Dengan menggunakan
floating IP, maka client hanya akan memandang satu buah IP address
yang berperan sebagai gateway menuju ketiga Cluster Node, sehingga
ketika client sedang mengakses FTP server dari salah satu node dan
terjadi failover ke node yang lain, maka client tidak perlu merubah IP
Address yang menuju FTP server.
Masing-masing iSCSI Initiator dikonfigurasi secara manual
untuk menjadi FTP server, kemudian layanan FTP diintegrasikan
dengan floating IP Address sebagai Cluster Service Group melalui
Luci Cluster Management. Direktori yang digunakan media
penyimpanan pada layanan FTP ialah /GFS, yaitu direktori dimana
GFS2 Cluster File System berada. Interkoneksi antar Client menuju
Cluster Node menggunakan FastEthernet Switch. Client kemudian
terhubung kepada salah satu iSCSI initiator untuk menggunakan
layanan FTP menggunakan software FileZilla. Setelah proses login
dan authentikasi user dilakukan, maka client men-download file yang
terdapat pada direktori /GFS. File yang digunakan sebagai pengujian
proses transfer file ialah file video dengan ukuran 1,2 GB. Nilai
020406080
100
CPU Load Read & Write node 2 (1G)
Write
Read
0
10
20
30
CPU LOAD node 2 (1G)
write
read
0
5
10
15
4 8
16
32
64
12
8
25
6
51
2
10
24
20
48
40
96
81
92
16
38
4
CPU Load Read & Write node 3 (1G)
Write
Read
0
10
20
30
40
4 8
16
32
64
12
8
25
6
51
2
10
24
20
48
40
96
81
92
16
38
4
CPU LOAD node 3 (1G)
write
read
Throughput didapatkan berdasarkan pengamatan selama proses
download pada sisi client menggunakan Wireshark.
4.3.2 Hasil Pengukuran
Gambar 4.14 Hasil throughput FTP pada client
Dari hasil pengamatan menggunakan wireshark, didapatkan
nilai throughput layanan FTP pada Cluster File System sebesar 34
MBps. Nilai tersebut didapatkan pada jaringan lokal yang terisolasi
dari trafik internet menggunakan interkoneksi Fast Ethernet Switch.
Dengan FTP Server menggunakan IP Address 192.168.1.100.
Pengukuran dilakukan menggunakan wireshark pada sisi client
dengan sistem operasi CentOS 6.5.
Pada saat mekanisme failover diberlakukan pada Cluster
Node, hal tersebut tidak mempengaruhi transmisi paket dari Cluster
Node menuju client. Hal tersebut diamati dari software dimana tetap
terjadi komunikasi dari client menuju FTP Server dengan IP Address
192.168.1.100
4.3.3 Analisis Hasil Pengukuran
Dari hasil pengukuran throughput, tampak bahwa nilai
throughput sebesar 34 MBps dengan kanal informasi menggunakan
kabel 100 MBps Ethernet LAN ialah tidak maksimal. Hal tersebut
merupakan indikasi terjadinya bottleneck pada jaringan tersebut.
Bottleneck yang terjadi dapat diakibatkan oleh FastEthernet Switch
yang digunakan. Keterbatasan kapasitas dan kualitas FastEthernet
yang digunakan mengakibatkan trafik yang mengalir dari Cluster
Node menuju client tidak dialirkan dengan sempurna. Latency dan
bottleneck juga dapat terjadi pada NIC yang menjadi port koneksi
menuju kabel Ethernet. Hal ini juga mengindikasikan bahwa
penggunaan dan pemilihan Hardware dalam interkoneksi jaringan
memegang peranan penting dalam nilai throughput yang akan
didapatkan oleh Client.
4.4 Failover Delay
4.4.1 Sistematika Pengukuran
Proses failover digunakan sebagai salah satu parameter
pengujian guna mengetahui performa High-Availability pada GFS2
Cluster File System sebagai layanan media penyimpanan data. Suatu
service hanya dapat berjalan pada salah satu node,. Pada kasus ini,
service yang dijalankan dalam mekanisme failover ialah FTP Client-
Server. Service tersebut dikonfigurasi secara default agar berjalan
pada node 1 iSCSI Initator yang sudah terintegrasi dengan floating IP
Address sebagai Resource Group pada Cluster.
Floating IP Address digunakan untuk memastikan saat
proses failover terjadi, client tidak menyadari bahwa terdapat migrasi
sistem (failover) dari node 1 ke node failover (node2). Sebelum
melakukan mekanisme pengujian failover, terlebih dahulu dilakukan
konfigurasi failover domain berdasarkan skala prioritas, sehingga
ketika node 1 failure, service akan berpindah ke node 2, dan apabila
node 2 mengalami failure, service FTP akan berpindah lagi menuju
node 3.
Dalam mekanisme failover terdapat dua macam metode
yang bisa digunakan. Metode pertama ialah dengan salah satu node
dimatikan (poweroff) agar service berpindah kepada node yang masih
aktif. Yang kedua ialah dengan metode cold failover, dimana service
pada node yang aktif dipindahkan kepada node yang lain sesuai
keinginan admin melalui perintah / command.
:#clusvcadm –r GFS –m node2
4.4.2 Hasil Pengukuran
Hasil pengukuran dengan proses failover:
Gambar 4.15 Pengamatan failover melalui syslog
Hasil pengukuran dengan proses failover melalui wireshark:
Gambar 4.16 Pengamatan failover melalui wireshark
Dari hasil pengamatan pada syslog dan wireshark di node 2,
dapat terlihat bahwa selama proses failover terjadi semenjak suatu
node dinyatakan DOWN oleh rgmanager. Berikutnya, kernel akan
melakukan mekanisme fencing dan locking melalui DLM
(Distributed Lock Manager) serta melakukan pengecekan terhadap
journal yang terdapat pada setiap node. Kemudian GFS2 Cluster File
System akan dinyatakan siap oleh kernel dan kemudian service mulai
aktif pada node 2.
Setelah node 2 dinyatakan sebagai active node, dan layanan
FTP berjalan pada node 2, dilakukan pengecekan ulang pada node 2
terhadap status Cluster melalui perintah CLUSTAT untuk memastikan
bahwa service telah berpindah ke node 2.
4.4.3 Analisa Hasil Pengukuran
Dari hasil pengukuran delay failover diatas, tampak delay
selama perpindahan ialah sebesar 42 second. Dan melalui proses cold
failover, tingkat akurasi delay dapat diamati dengan lebih detail
melalui wireshark dengan delay sebesar < 0,2 second.
Dengan demikian proses perpindahan trafik maupun service
dari suatu node yang mengalami failure dapat mengakibatkan
gangguan terhadap user dikerenakan delay failover yang cukup lama.
Namun apabila menggunakan cold failover maka migrasi terjadi
secara singkat tanpa dirasakan oleh user.
Berdasarkan hasil pengamatan, selama proses failover
berlangsung. Cluster Manager (CMAN) akan melakukan monitoring
terhadap jumlah cluster node yang berada dalam posisi on. Ketika
kondisi dalam suatu cluster berubah, maka CMAN akan mendeteksi
perubahan tersebut dan melakukan tindakan yang perlu dilakukan.
Dalam hal ini, ketika cluster node tidak memberikan message apapun
untuk berkomunikasi dengan node yang lain dalam rentang waktu
tertentu, maka CMAN akan melakukan proses remove terhadap node
tersebut dan membership of cluster pada node tersebut dinonaktifkan,
dan node tersebut tidak lagi dianggap sebagai cluster member.
Selanjutnya, DLM dan kernel akan melakukan proses
recovery terhadap Cluster File System. Ketika suatu node dianggap
failure, maka aktivitas cluster akan di-suspend, DLM dan GFS akan
melakukan recovery. DLM melepas locking management pada failure
node, dan GFS melakukan recovery journal terhadap node yang
failure.
Setelah mekanisme recovery diatas selesai, maka aktivitas
pada Cluster akan dilanjutkan. Service yang sebelumnya berjalan
pada node 1 siap untuk diaktifkan melalui node 2. Kemudian
pemulihan service dilakukan berdasarkan konfigurasi cluster yang
terdapat pada Cluster Configuration Management. Layanan FTP yang
sempat di-suspend, kembali dijalankan, dan proses transfer file data
dapat diteruskan berdasarkan journal yang sudah di-recovery tanpa
harus mengirimkan data ulang dari awal.
Mekanisme fencing dan locking tampak pada hasil
screenshoot berikut.
Gambar 4.18 Mekanisme fencing dan locking ketika GFS failover
Analisa juga dilakukan dengan melakukan failover ketika terdapat 2
buah cluster node yang dinonaktifkan.
Gambar 4.19 Pengamatan Service GFS failover saat terjadi kegagalan
di 2 node
Berdasarkan pengamatan diatas, dapat dilihat bahwa failover
yang terjadi ketika dua buah node mengalami kegagalan ialah failover
yang sesuai dengan failover domain sebagaimana yang sudah
terkonfigurasi pada Cluster Manager. Sehingga ketika node 1 dan
node 2 mengalami kegagalan, maka service akan mati dan cluster
akan nonaktif dikarenakan cluster tidak memenuhi quorum (1/2+1
jumlah total node yang aktif).
Sedangkan delay failover yang terjadi antara node yang satu
dengan node yang lainnya dapat dilihat pada grafik berikut:
Gambar 4.20 Pengamatan failover delay Service GFS dari node 1 ke
node 2 dan node 2 ke node 3
Gambar 4.21 Pengamatan cpu load sebelum dan sesudah failover
0
5
10
15
1 to 2 2 to 3
failover delay antar node (second)
0
10
20
30
40
node 1 node 2 node 3
failover cpu load
before failover
after failover
fencing
locking
Dari hasil pengukuran delay diatas, dapat terlihat bahwa
spesifikasi hardware pada masing-masing server dapat mempengaruhi
delay ketika terjadi kegagalan pada suatu node. Demikian pula saat
terjadi failover dengan menumpangkan layanan yang berbeda kepada
node lain, terlihat bahwa dengan hardware yang ber spesifikasi lebih
tinggi, total resource yang digunakan tidak terlalu besar.
Pada gambar 4.21 dapat dilihat nilai CPU Load pada
masing-masing node dengan kondisi ketika sebelum menerima
service failover dari node lain, dan kondisi sesudah node tersebut
menerima service failover dan melakukan back up terhadap layanan
cluster node yang mengalami failure. Contohnya ialah saat terdapat
suatu layanan web service yang berjalan pada node 3, kemudian node
3 mengalami kegagalan, maka service tersebut akan mengalami
failover kepada node 1 atau node lain berdasarkan pada failover
domain yang sudah dikonfigurasi melalui cluster management.
Dikarenakan standby node menangani service yang
sebelumnya berjalan pada node yang mengalami kegagalan, maka
terdapat kenaikan beban pada initiator yang menerima service
failover dan mengakibatkan penambahan layanan atau service yang
harus ditangani oleh standby node tersebut. Kenaikan beban CPU
Load dengan failover pada layanan yang berbeda berkisar antara
110% hingga 250% terhadap CPU Load sebelum dilakukan failover.
4.5 Video Streaming Server
Streaming server pada layanan cloud storage merupakan
salah satu layanan dengan jenis Video on Demand. Pengujian
terhadap kualitas Video on Demand pada cluster file system
digunakan untuk menggambarkan kemampuan Storage sebagai
penyedia layanan video yang diakses oleh client melalui Cluster
Server.
4.5.1Sistematika Pengukuran
Pengukuran dilakukan dengan mengunakan aplikasi VLC
Media Player pada sisi client. Service layanan video pada Cluster
Server dikonfigurasi menggunakan nginx yang dapat diakses melalui
setiap initiator node dengan terintegrasi sebagai suatu cluster service.
File video yang digunakan untuk pengujian terletaka pada Storage
Device dibawah direktori /GFS.
Pengukuran dilakukan dengan mengamati koneksi yang
terjadi melalui software Wireshark. Akan dilakukan simulasi failover
pada saat user sedang mengakses layanan video dari cluster service.
Dengan demikian dapat diketahui dampak dan performansi
penggunaan Cluster File System pada layanan Video on Demand.
Pengukuran dilakukan dengan mencoba menghubungkan
client dengan storage server melalui masing-masing node dan
kemudian diambil capture menggunakan wireshark untuk
mendapatkan nilai throughput dari masing-masing node.
4.5.2 Hasil Pengukuran
Gambar 4.22 Pengamatan video streaming melalui wireshark
Melalui gambar 4.22, dapat terlihat hasil video yang berhasil
diakses oleh client melalui mekanisme server cluster lewat salah satu
node cluster menggunakan cluster service. Dapat dilihat melalui hasil
capture mengunakan aplikasi wireshark, bahwa protokol yang yang
digunakan pada layanan tersebut ialah protokol-protokol yang
mendukukng layanan video streaming, seperti UDP, RTP, dan RSTP.
File video yang digunakan merupakan file berekstensi .mp4 dengan
ukuran 864 MB. Kualitas tayangan yang didapat cukup baik dan tidak
terjadi noise (0 % error).
Namun apabila dilakukan simulasi proses failover layanan,
koneksi user terhadap file video yang diakses akan terputus dan tidak
tersambung kembali secara otomatis. Hal ini dapat diamati lebih
lanjut melalui gambar 4.23
Gambar 4.23 Pengamatan video streaming saat terjadi failover
Tampak bahwa ketika dilakukan proses failover, paket data
yang berisikan file video tidak dikirimkan oleh cluster dan tidak ada
protokol UDP ataupun RTMP yang masuk kepada client, melainkan
laporan error yang dikirimkan oleh cluster dengan berisikan pesan
bahwa paket yang diminta dari node tersebut ialah tidak diketahui
(unknown).
Meskipun cluster server tidak dapat menjalankan proses
failover terhadap layanan akses video, skenario pengujian dapat
dilakukan dengan menguji kemampuan masing-masing node secara
satu-persatu dan mengetahui nilai throughput yang didapatkan oleh
client pada saat mengakses file video dari node-node yang berbeda.
Nilai throughput pada client dapat dilihat melalui wireshark. Dengan
nilai throughput yang berbeda-beda ketika video diakses melalui node
yang berbeda-beda, hasil throughput yang didapatkan tidak
mempengaruhi kualitas video secara langsung.
Gambar 4.24 Nilai throughput video pada client
4.5.3 Analisis Hasil Pengukuran
Dari hasil pengujian diatas, menunjukkan bahwa ketika user
mengakses layanan video dan terjadi failover, maka koneksi terhadap
file yang diakses akan terputus, dan dapat diakses kembali dengan
cara melakukan reload terhadap alamat yang disediakan oleh Cluster
Management. Hal ini terjadi karena pada layanan video, akses
streaming pada sesi tersebut akan terputus dan media player tidak
dapat mendeteksi sesi yang sudah dilakukan ketika terjadi failover
dan tidak mendapat packet video lagi dikarenakan terdapat delay
selama proses failover. Hal tersebut yang kemudian menyebabkan
setiap terjadi failover, maka user harus melakukan reload untuk
membangun sesi streaming video dari awal untuk dapat melanjutkan
layanan video.
Tampak dari hasil pengukuran throughput melalui wireshark
pada sisi client, meskiputn hasil dari throughput relatif serupa, namun
terdapat perbedaan ketika jalur koneksi melalui node dengan
spesifikasi hardware yang lebih baik, pada jaringan dan layanan yang
sama, maka nilai throughput juga ikut menjadi lebih baik.
Pengukuran dilakukan dengan menggunakan software
IOzone. Pengukuran dilakukan pada setiap iSCSI Initiator dengan
ukuran block 4KB hingga 16384KB, dengan ukuran sebesar 1 GB.
Trafik yang dibangkitkan ialah trafik I/O antar iSCSI Initiator dengan
iSCSI Target. Pengukuran atau benchmark dilakukan secara
bergantian antara Initiator di node 1, node 2, dan node 3. Hal ini
ditujukan untuk mendapatkan hasil IOPS yang tidak dipengaruhi oleh
trafik dari sesama Initiator.
Pengukuran dilakukan sebanyak 30 kali untuk meningkatkan
akurasi pengukuran, mengeliminasi anomali pengukuran, dan
menggambarkan pola hasil pengukuran yang muncul.
5. PENUTUP
5.1 Kesimpulan
Dari pengujian dan analisa yang dilakukan, dapat
diambil beberapa kesimpulan sebagai berikut :
1. Berdasarkan konfigurasi dan implementasi Storage Device pada
Cluster File Systerm dengan melibatkan iSCSI Target, iSCSI
Initiator dan GFS, maka dapat disimpulkan bahwa Cluster File
System pada SAN berbasis iSCSI dapat digunakan sebagai salah
satu metode yang dapat menunjang layanan Cloud Storage.
2. Berdasarkan benchmark yang dilakukan menggunakan IOzone,
maka kinerja Cluster File System sebagai penunjang layanan
Cloud Storage memiliki kemampuan IO Write yang lebih baik
dibanding dengan kemampuan IO Read, dan juga membutuhkan
resource yang cukup besar pada memory di iSCSI Initiator yang
dapat mencapai hingga 100%, namun tidak menggunakan
resource CPU yang tinggi karena rata-rata penggunaan CPU
pada Initiator hanya berkisar antara 0,2% - 30 %.
3. Pada pengukuran delay failover, dapat disimpulkan bahwa
proses migrasi dari suatu node ke node yang lain pada suatu
cluster apabila salah satu sistem terdapat kegagalan ialah >7
detik, hal ini mengakibatkan koneksi dan proses transfer file
akan terputus ketika user sedang mengakses suatu layanan pada
server.
4. Dari implementasi yang dilakukan penggunaan Cluster File
System terbukti dapat menghilangkan single node failure pada
layanan Cloud Storage yang terdapat pada suatu server.
5. Nilai throughput dalam jaringan dipengaruhi oleh kualitas
hardware yang digunakan untuk interkoneksi pada jaringan
tersebut.
6. Cluster File System tidak mendukung failover pada layanan
Video on Demand yang diakses melalui Cluster Server
5.2 Saran
Penelitian selanjutnya diharapkan dapat melakukan penelitian
lebih lanjut dengan:
1. Implementasi Multipath untuk membuat lebih banyak LUN
yang mengarah kepada iSCSI Target.
2. Melakukan analisis sistem ketika menggunakan high-end
interconnection hardware.
3. Menguji performa IOPS dengan menggunakan peripheral
hardware dengan high-end spesification.
4. Melakukan pengujian performansi sistem dengan parameter
response time dan pengaruh terhadap jumlah user yang
dapat ditangani,.
5. Menggunakan layanan yang berbeda-beda pada setiap
cluster node yang dapat diakses secara simultan oleh
multiuser.
6. Menggunakan komponen LVS Router sebagai tambahan
dalam menunjang trafik failover menuju Cluster Server.
7. Mengimplementasikan Cluster Server untuk berbagai layanan
yang berbeda antar node.
DAFTAR PUSTAKA
Armanda, Ryan A.P. Skripsi: Implementasi Teknologi Cloud
Computing Menggunakan Cloudsim Untuk Implementasi
TIK Hijau. Universitas Indonesia. Depok. 2010.
0
50
100
150
node 1 node 2 node 3
throughput video
throughputvideo
Boronzyk, Timothy dan Christopher Negus. CentOS Bible. Wiley
Publishing, Inc. Indianapolis. USA. 2009.
Capps, Done (dkk). Analyzing NFS Client Performance with IOzone.
NFS Industry Conference. 2002.
Carolan, Jason dan Steve Gaede. Introduction to Cloud Computing
Architectre, White Paper, 1st Edition. Sun Microsystem.
Santa Clara. USA. 2009.
Chevance, René J. Server Architecture: Multiprocessors, Clusters,
Parallel System, Web Servers, and Storage Solutions.
Elsevier Digital Press, Burlington, USA. 2005.
Farley, Marc. Storage Networking Fundamentals: An Introduction to
Storage Devices, Subsystems, Applications, Management,
and Filing Systems. Cisco Press. Indianapolis. 2005
Fatahna, Muhammad An’im. CentOS Network Administrator, Beta1.
CentOS Indonesia Community. Indonesia. 2011
Gauger. C. M. (dkk). Modeling and Performance Evaluation of iSCSI
Storage Area Network over TCP/IP-based MAN and WAN
networks. University of Stuttgart. Stuttgart. Germany. 2005.
Jacobi, Tim-Daniel dan Jan Lingermann. Evaluation of Distributed
File System. Universitat Hamburg. Germany. 2012.
Kurniagraha, Deni. Tugas Akhir: Analisis Performansi Layanan
Cloud Storage pada sistem operasi windows dan linux.
Institut Teknologi Telkom. Bandung. 2012
Lu, Yingping dan David. Performance Study of iSCSI-Based Storage
Subsystems. University of Minnesota. USA. 2003.
McPherson, Amanda. Linux: The Operating System of the Cloud. The
Linux Foundation. 2009.
Nimis. Jens. Cloud Computing Tutorial. IPE-Klausurtagung.
Freudenstadt, Germany. 2009.
NN. iSCSI Protocol Concepts and Implementation. Cisco Systems,
USA. 2001.
NN. Network Protocols Handbook, 2nd Edition. Javvin
Technologies, Inc. Saratoga. USA. 2005.
NN. Red Hat Enterprise Linux 5.8 Beta: Cluster Suite Overview
RHEL, Edition 5. Red Hat, Inc. USA. 2010
NN. Red Hat Enterprise Linux 6: Global File System 2. Red Hat, Inc.
USA. 2013
NN. SAN System Design and Deployment Guide. Vmware, Inc.
Hilview Ave. USA. 2010.
Norcott, William D. Iozone Filesystem Benchmark.doc.
http://www.iozone.org.
Radkov, Peter (dkk). A Performance Comparison of NFS and iSCSI
fo IP-Networked Storage. University of Massachusetts.
USA. 2004
Routray, Ramani (dkk). iSAN: Storage Area Network Management
Modeling Simulation. IBM India System and Technology
Lab. India. International Conference on Networking,
Architecture, and Storage. 2007.
Tate, Jon dkk. Redbooks: Introduction to Storage Area Networking
and System Networking. 5th Edition. IBM, USA. 2012
Thain, Douglass dkk. Chirp: A Practical Global Filesystem for
Cluster and Grid Computing. Department of Computer
Science and Engineering, University of Notre Dame. 2007.
Towns, Anthony. Red Hat Cluster Suite for Red Hat Enterprise Linux
5: Cluster Suite Overview, Edition 5. Redhat, Inc. 2010.
Troppers, Ulf (dkk). Storage Networks Explained: Basics and
Application of Fibre Channel SAN, NAS, iSCSI, InfiniBand
and FcoE, Second Edition. John Wiley & Sons Ltd. 2009.
Wiratama, Hendra. Tugas Akhir: Implementasi Storage Area Network
Menggunakan Protokol iSCSI Pada Sistem Terdistribusi.
Institut Teknologi Telkom, Bandung. 2012.