BAB 2
TINJAUAN PUSTAKA
2.1 Teori yang berkaitan dengan jaringan
2.1.1 Perangkat Jaringan
Dalam merancang jaringan, diperlukan perangkat keras untuk
menghubungkan antar klien. Perangkat keras ini dapat meningkatkan
efisiensi dalam pengiriman paket dan biaya yang dikeluarkan dalam
merancang jaringan. Beberapa perangkat keras yang diperlukan dalam
merancang jaringan yaitu:
1. Router
Perangkat yang bekerja pada network layer, yang digunakan
untuk membuat dan menghubungkan segmen jaringan atau
broadcast domain. Router harus dikonfigurasi terlebih dahulu
sebelum traffic dapat mengalir melaluinya. Setiap interface
menciptakan segmen dan oleh karena itu router membentuk
perbatasan untuk broadcast dan collision domain untuk semua
perangkat di segmen itu. Biasanya, router dilambangkan dengan
sebuah tabung pipih dengan memiliki empat anak panah dari
empat sisi di atasnya, seperti yang ditunjukkan pada gambar 2.1.
(Ed Tittel, 2004:44).
Gambar 2.1 Router
(Sumber: Computer Networking first-step, 2004, pxxix)
2. Switch
Perangkat yang bekerja pada data link layer, perangkat yang
digunakan untuk menghubungkan komponen jaringan, perangkat
ini menciptakan broadcast domain tunggal untuk perangkat yang
terhubung ke dalamnya. Masing-masing port bertindak sebagai
7
8
collision domain yang terpisah. Biasanya simbol switch
digambarkan seperti sebuah balok pipih dengan empat anak panah
di atasnya. Dua anak panah mengarah ke kiri dan dua anak panah
lainnya mengarah ke kanan (Gambar 2.3). (Ed Tittel, 2004:44).
Gambar 2.3 Switch
(Sumber: Computer Networking first-step, 2004, pxxix)
Seiring dengan meningkatnya kebutuhan, maka switch telah
diberi beberapa fitur tambahan yang tidak dijumpai pada switch
jenis lama. Inilah yang disebut dengan multilayer switch (MLS).
Switch jenis ini berfungsi sama dengan switch tradisional, hanya
saja memiliki fitur lain seperti QoS (Quality of Service), ToS
(Type of Service), IP Security, IP DSCP (Differentiated Services
Code Point) to VLAN, VLAN to IP DSCP, dan sebagainya.
Multilayer switch biasa digambarkan dengan gambar 2.4.
Gambar 2.4 Multilayer Switch
(Sumber: Building Cisco Multilayer Switched Network (BCMSN)
v3.0, 2006, p4)
2.1.2 Tipe Jaringan
Menurut Andrew S. Tanenbaum (2003:14), tipe jaringan
ditentukan oleh ukuran, kepemilikan, arsitektur fisik, dan
jangkauannya. Secara umum, jaringan dibagi dalam 3 tipe
berdasarkan ukuran fisiknya.
1. Local Area Network (LAN)
9
LAN adalah jaringan milik pribadi di dalam sebuah gedung
atau kampus yang berukuran sampai beberapa kilometer. LAN
seringkali digunakan untuk menghubungkan komputer-komputer
pribadi dan workstation dalam kantor perusahaan atau pabrik-
pabrik untuk memakai bersama resource (misalnya, printer) dan
saling bertukar informasi. (Andrew S. Tanenbaum, 2003:16).
2. Metropolitan Area Network (MAN)
MAN adalah versi LAN yang berukuran lebih besar dan
biasanya memakai teknologi yang sama dengan LAN. MAN dapat
mencakup kantor-kantor perusahaan yang berdekatan atau juga
sebuah kota dan dapat dimanfaatkan untuk keperluan pribadi
(swasta) atau umum. MAN mampu menunjang data dan suara,
bahkan dapat berhubungan dengan jaringan televisi kabel. MAN
menyediakan konektivitas untuk LAN di wilayah metropolitan,
dan menghubungkan mereka ke jaringan area yang lebih luas
seperti Internet. (Andrew S. Tanenbaum, 2003:18).
3. Wide Area Network (WAN)
WAN mencakup daerah geografis yang luas, seringkali
mencakup sebuah negara atau benua. WAN terdiri dari kumpulan
mesin yang bertujuan untuk menjalankan program-program
(aplikasi) pemakai. Kita akan mengikuti penggunaan tradisional
dan menyebut mesin-mesin ini sebagai host. Host dihubungkan
oleh sebuah subnet komunikasi, atau cukup disebut subnet. Subnet
membawa pesan dari satu host ke host lainnya. Pada sebagian
besar WAN, jaringan terdiri dari sejumlah banyak kabel atau
saluran telepon yang menghubungkan sepasang router. (Andrew
S. Tanenbaum, 2003:19).
2.1.3 Topologi Jaringan
Menurut Keith E. Strassberg, Richard J. Gondek, dan Gary
Rollie (2002:64), dalam merancang jaringan, diperlukan topologi
10
yang digunakan untuk menghubungkan antar perangkat keras,
terdapat beberapa topologi yang umum digunakan saat ini. topologi
jaringan dapat diklasifikasikan sebagai salah satu dari berikut:
1. Ring, dalam sebuah topologi ring, komponen-komponen
terhubung dari ujung ke ujung untuk membentuk sebuah cincin.
Topologi ring yang awal, misalnya Fiber Distributed Data
Interface (FDDI), sebuah teknologi OSI Layer 2, dan Synchronous
Optical Network (SONET), sebuah teknologi OSI layer 1, bekerja
dengan baik. Topologi ini memiliki failover yang telah dibangun
ke dalam arsitektur teknologinya. Gambar 2.5 menunjukkan
aturan yang terjadi dalam sebuah topologi ring. (Keith E.
Strassberg, Richard J. Gondek, dan Gary Rollie, 2002:64)
Gambar 2.5 Topologi Ring
(Sumber: Firewalls : the complete reference, 2002, p65)
2. Star, topologi star menyerupai sebuah jaringan yang terkontrol
secara terpusat. Setiap endpoint terhubung ke sebuah hub terpusat
melalui sebuah point-to-point circuit. Kegunaan dari switch
ethernet adalah sebagai contoh dari topologi star yang
diimplementasikan kedalam sebuah lingkungan LAN. Ini
merupakan jalan termudah untuk menyediakan konektivitas
11
ethernet kepada server atau perangkat jaringan, seperti yang
ditunjukkan pada gambar 2.6.
Dalam kebanyakan implementasi juga digunakan model
seperti topologi star, lebih sering dikenal sebagai hub-and- spoke.
Alasan dari implementasi sebuah WAN menggunakan topologi
hub-and-spoke lebih karena adanya alasan ekonomi dibandingkan
kontrol yang terpusat dan manajemen. (Keith E. Strassberg,
Richard J. Gondek, dan Gary Rollie, 2002:67—68)
Gambar 2.6 Topologi Star dalam jaringan
(Sumber: Firewalls : the complete reference, 2002, p68)
3. Ethernet/bus, ethernet memungkinkan beberapa perangkat untuk
mengakses ke media transport yang sama (contohnya coax cable),
melalui sebuah spesifikasi yang memaggil sistem untuk
mendengarkan traffic yang ada sebelum melakukan transmisi dan
mengambil sebuah tindakan khusus untuk mendeteksi dan
menghindari tabrakan dalam sebuah komunikasi. Seperti yang
ditunjukkan oleh gambar 2.7, sebuah coax cable menyediakan
12
konektivitas untuk semua peralatan yang ada dalam jaringan.
(Keith E. Strassberg, Richard J. Gondek, dan Gary Rollie,
2002:69)
Gambar 2.7 Topologi Bus
(Sumber: Firewalls : the complete reference, 2002, p69)
Dalam gambar tersebut dengan sebual infrastruktur ethernet
coaxial, semua perangkat dapat mengakses semua perangkat yang
ada dalam topologi bus yang sama dan mendengarkan semua traffic
yang melewatinya. Penggunaan topologi ini dimulai pada sekitar
tahun 1980 dan mulai memudar pada tahun 1990, karena adanya
perkembangan teknologi yang lebih fleksibel.
4. Mesh, dalam sebuah topologi mesh, yang dapat dilihat pada gambar
2.8, semua perangkat layer 3 terkoneksi ke satu dengan lainnya.
Topologi mesh memberikan konektivitas yang penuh dan memiliki
failover yang baik, akan tetapi mereka sangat mahal jika digunakan
dalam jaringan dengan sekala besar. Setiap kali perngakat baru
13
ditambah, maka diperlukan koneksi terhadap semua interface
perangkat yang telah ada dalam topologi tersebut. Biaya akan terus
mengembang. Bagaimanapun juga, topologi ini tetap memberikan
keuntungan berupa availability yang tinggi, konvergensi, dan
latency yang rendah. (Keith E. Strassberg, Richard J. Gondek, dan
Gary Rollie, 2002:73)
Gambar 2.8 Topologi Mesh
(Sumber: Firewalls : the complete reference, 2002, p73)
5. Hierarchical, dalam jaringan yang besar, topologi ini seperti yang
dapat dilihat pada gambar 2.9, memfokuskan traffic pada sebuah
infrastruktur area inti untuk mengurangi biaya dibandingkan dengan
topologi mesh dan kepadatan yang terjadi pada design linear. Hal
ini menjadi situasi percancangan yang kritis. Jalur yang ada dalam
dari setiap bagian luar atau domain dimungkinkan dapat didasarkan
pada lokasi geografis, gedung kampus, atau departemen. Konsepnya
adalah untuk mengelompokkan sesuai hubungan logika dalam
intranet. Dari pandangan secara desain, bandwidth dialokasikan
untuk mendukung pemintaan puncak dari traffic yang melewati
infrastruktur inti. Dalam pembuatan desain, penting sekali untuk
menganalisa traffic inter-area secara hati-hati untuk meyakinkan
bahwa infrastruktur inti tidak terjadi bottleneck. Penggunaan
14
firewall dan keamanan jaringan diaplikasikan pada infrastruktur inti
yang memberikan akses internet maupun akses antar logical group,
sesuai kebutuhan. (Keith E. Strassberg, Richard J. Gondek, dan
Gary Rollie, 2002:74)
Gambar 2.9 Topologi Hierarchical
(Sumber: Firewalls : the complete reference, 2002, p74)
2.1.4 DHCP Server
Dynamic Host Configuration Protocol adalah protokol jaringan
yang memungkinkan sebuah perangkat jaringan membagi konfigurasi
IP Address kepada komputer-komputer user yang membutuhkan.
Konfigurasi IP Address ini meliputi IP Address itu sendiri, subnet
mask, default gateway dan DNS Server yang dibutuhkan untuk
mengakses internet. Perangkat yang akan membagi konfigurasi IP
Address disebut DHCP Server, sedangkan komputer yang akan
meminta IP Address pada DHCP Server disebut DHCP Client. DHCP
banyak diimplementasikan pada hotspot, baik private maupun hotspot
untuk public. DHCP ini diimplementasikan agar setiap komputer yang
terhubung dengan jaringan tidak perlu lagi dikonfigurasikan satu per
satu. (Rendra Towidjojo, 2013:83-84).
Terdapat hal-hal yang harus dikonfigurasikan pada DHCP
Server. Hal tersebut dapat dijabarkan sebagai berikut:
15
1. Network address, hal ini merupakan IP Address yang keseluruhan
bit host-ID nya bernilai nol, beserta prefix (subnetmask) yang
harus diberikan kepada komputer user.
2. Gateway, komputerr user harus memiliki gerbang yang digunakan
untuk mengakses host lain atau jaringan lain.
3. IP address pool, jumlah IP address yang akan diberikan kepada
sejumlah komputer user, disesuaikan dengan jaringan yang
dibangun.
4. DNS server, komputer client yang akan mengakses internet
membutuhkan DNS server. DNS server disediakan oleh ISP.
5. Lease time, DHCP server bekerja dengan prinsip pinjam-
meminjam IP address pada DHCP server. DHCP server akan
memberikan jangka waktu peminjaman IP address yang
ditentukan oleh lease time. Selama lease time dari sebuah IP
address belum habis, maka IP address tersebut tidak akan
dipinjamkan kepada komputer lain.
DHCP memungkinkan baik penetapan IP address manual dan
penetapan secara otomatis. hal ini dijelaskan dalam RFC 2131 dan
2132. Pada kebanyakan sistem, telah banyak menggantikan RARP dan
BOOTP. (James F. Kurose dan Keith W. Ross, 2003:454).
Seperti RARP dan BOOTP, DHCP didasarkan pada gagasan dari
sebuah server khusus yang memberikan IP address untuk host yang
meminta. Server ini tidak perlu berada di LAN yang sama seperti host
yang meminta. Karena DHCP server mungkin tidak terjangkau oleh
broadcasting, sebuah relay agent DHCP diperlukan pada setiap LAN,
seperti terlihat pada gambar 2.10.
16
Gambar 2.10 Operasi dari DHCP
(Sumber: Computer Networking: A Top-Down Approach Featuring the
Internet, 2003, p454)
Untuk menemukan IP addressnya, host yang baru saja
melakukan boot menyiarkan paket DHCP DISCOVER. DHCP relay
agent pada LAN memotong semua broadcast DHCP. Ketika ia
menemukan DISCOVER paket DHCP, ia akan mengirimkan paket
tersebut sebagai paket unicast ke server DHCP, yang mungkin
terdapati di sebuah jaringan yang jauh. Satu-satunya informasi relay
agent dibutuhkan adalah IP address dari server DHCP.
2.1.5 Firewall
Menurut E. Strassberg, Richard J. Gondek, dan Gary Rollie
(2002:2—3) Fungsi dasar dari firewall adalah untuk melindungi
komunikasi jaringan untuk sebuah tujuan dari pencegahan dari akses
yang tidak sah ke atau dari sebuah jaringan komputer.
Firewall memiliki beberapa bentuk dan ukuran. Dan terkadang
firewal, sebenarnya adalah sebuah kumpulan dari beberapa komputer
yang berbeda. Firewall adalah komputer atau beberapa komputer
yang berdiri diantara jaringan terpercaya (seperti, jaringan internal)
dan jaringan yang tidak terpercaya (seperti, internet), memeriksa
semua lalu-lintas yang mengalir di antara jaringan tersebut. Firewall
memiliki ciri, antara lain:
1. Semua komunikasi melewati firewall.
17
2. Firewall mengizinkan lalu-lintas yang diizinkan olehnya.
3. Firewall dapat menahan serangan pada dirinya sendiri.
Firewall bertindak sebagai buffer antara jaringan yang
terpercaya dan jaringan yang tidak terpercaya. Asal nama firewall
sebenarnya diturunkan dari sebuah teknik yang digunakan dalam
konstruksi dalam sebuah tembok yang dibangun dari bahan-bahan
yang tahan api untuk mencegah atau setidaknya memperlambat
penyebaran api. Intinya, firewall adalah sebuah pelindung (barrier).
Dalam sebuah jaringan, firewall adalah sebuah titik pelaksanaan untuk
melindungi terhadap serangan dari network lain.
Firewall dapat berupa router, sebuah komputer pribadi (PC),
sebuah host, atau kumpulan dari host yang khusus dibangun untuk
melindungi sebuah jaringan pribadi dari protokol dan services yang
disalahgunakan dari host lain dari luar jaringan yang terpercaya.
Sebuah sistem firewall dapat dan sebaiknya terletak di dalam sebuah
perimeter jaringan untuk menyediakan proteksi tambahan dan lebih
spesifik untuk sebuah kumpulan host yang lebih kecil.
Cara firewall melindungi jaringan terpercaya tergantung dari
firewall itu sendiri dan rules/policies yang diaplikasikan ke dalamnya.
Ini adalah empat kategori utama dari teknologi firewall yang ada
sekarang:
1. Packet filters
2. Application gateways
3. Circuit-level gateways
4. Stateful packet-inspection engines
Tanpa firewall, sistem diserahkan kepada perangkat dan
konfigurasi keamanan mereka sendiri. Sistem ini mungkin saja
menjalankan services yang mengingkatkan fungsionalitas atau
menghilangkan bagian administration tetapi tidak terlalu aman, tidak
dapat dipercaya atau hanya dapat diakses dari lokasi tertentu. Firewall
digunakan untuk mengimplementasi kontrol akses yang memiliki
level lebih dari ini. Firewall mencegah adanya kompromi antara
security, usability, dan functionality.
18
2.2 Teori yang Terkait Tema Penelitian
2.2.1 Routing
Menurut Rendra Towidjojo (2013:1), routing merupakan teknik
yang digunakan untuk menghubungkan beberapa jaringan yang
memiliki network address maupun teknologi yang berbeda-beda.
Routing juga bertujuan memilihkan jalur terbaik (best path) yang akan
ditempuh paket data untuk menuju komputer tujuan. Bila mengacu
pada pemodelan OSI (Open System Interconnection), maka proses
routing terjadi pada layer 3 (network layer). Karena terjadi pada layer
network, maka proses routing erat kaitannya dengan pengalamatan
logika atau IP Address. Ada banyak teknik routing yang dapat
digunakan, namun secara garis besar routing dapat dilakukan dengan
teknik routing statik maupun dinamik.
1. Routing Statik (Static Routing)
Routing Statik adalah teknik routing yang dilakukan dengan
memasukkan entry route ke network tujuan (remote network) ke
dalam tabel routing secara manual oleh administrator jaringan.
Bila sebuah router memiliki satu remote network, maka
administrator jaringan juga harus memasukkan satu entry route ke
network tersebut. Jika terdapat dua remote network, maka
administrator akan memasukkan entry route sebanyak dua kali
untuk masing-masing remote network tersebut. Dalam
memasukkan entry route tersebut, administrator harus dapat
mengetahui dengan pasti gateway yang akan digunakan untuk
mencapai remote network. Untuk jaringan yang terdiri dari
beberapa router, maka penetuan gateway mapun jalur (path) harus
dilakukan dengan lebih cermat. Karena jalur diitentukan manual
oleh administrator jaringan, maka perjalanan paket data dari satu
network ke network yang lain dapat diketahui dengan pasti.
(Rendra Towidjojo, 2012:74—76).
19
2. Routing Dinamik (Dynamic Routing)
Tidak seperti pada routing statik dimana entry route pada tabel
routing diisi manual oleh administrator jaringan, routing dinamik
merupakan teknik routing yang memasukkan sendiri entry-entry route
ke dalam tabel routingnya. Untuk melakukan itu, router akan saling
bertukar informasi dengan router yang lain tentang jaringan yang
mereka ketahui masing-masing. Setelah mempelajari keberadaan
jaringan lain beserta cara mencapai jaringan tersebut, router akan
membuat entry route dan pada akhirnya memasukkan ke dalam tabel
routing. Pada jaringan yang menerapkan routing dinamik, jika terjadi
perubahan pengalamatan maupun topologi, maka router-router
tersebut akan mengirimkan informasi perubahan tersebut ke router
lain. Router-router tersebut akan bertukar informasi tentang
perubahan yang terjadi. (Rendra Towidjojo, 2012:76—78).
2.2.2 Virtual LAN
Menurut Jhon J. Roose (1998:323—327), Virtual LAN
merupakan suatu model jaringan yang tidak terbatas pada lokasi fisik
seperti jaringan LAN, di mana dalam VLAN ini suatu jaringan yang
dapat dikonfigurasi secara virtual tanpa harus sesuai dengan lokasi
fisik suatu device. Dengan menggunakan VLAN akan membuat
pengaturan suatu jaringan menjadi lebih fleksibel di mana dapat di
buat segmen yang bergantung pada organisasi atau departemen.
Keuntungan menggunakan VLAN :
1. Mengontrol Broadcast.
Dengan menggunakan VLAN, secara default port – port yang
tidak berada pada VLAN yang sama tidak dapat berkomunikasi
dengan demikian maka broadcast dapat di konfigurasi oleh admin.
Kinerja dari router juga akan menjadi lebih ringan, karena yang
mengatur broadcast adalah switch manageable.
2. Meningkatkan performa jaringan.
Dengan menggunakan VLAN, otomatis semua port – port yang
memiliki VLAN id sama dapat melakukan komunikasi, maka
20
hanya VLAN yang sudah terdaftar yang bisa melalui switch
tersebut, dengan itu akan meningkatkan kinerja jaringan tersebut.
3. Fleksibilitas dan skalabilitas
Fleksibiltas disini adalah dengan menggunakan VLAN tiap host
yang memiliki VLAN yang sama bisa saling berkomunikasi tanpa
harus masuk ke switch yang sama bisa dengan switch lain, dengan
syarat VLAN harus sama dan harus terhubung dengan switch
sebelumnya. Skalabilitas disini adalah dengan menggunakan
VLAN, maka tidak perlu takut kehabisan port yang di mana
dengan menambahkan switch lain dan di daftarkan dengan VLAN
yang sama maka akan dapat berkomunikasi lagi walaupun berbeda
switch tapi dalam satu VLAN yang sama.
4. Keamanan jaringan
Dengan menggunakan VLAN, sudah di atur sedemikian rupa
sehingga akan meningkatkan security jaringan VLAN tersebut,
karena beda VLAN tidak dapat saling berkomunikasi.
5. Mempermudah untuk mengatur jaringan
Dengan menggunakan VLAN, akan mempermudah seorang admin
jaringan untuk me-monitoring dan me-maintenance sebuah
jaringan, karena sudah dikelompokan masing–masing VLAN
sesuai dengan fungsinya. Dan juga jika ada penambahan atau
pengurangan jaringan hanya cukup dikonfigurasi secara virtual.
2.2.3 Load Balancing
Menurut Rendra Towidjojo (2013:9—10), load balance dalam
jaringan komputer adalah teknik untuk membagi beban (load) ke
dalam beberapa jalur atau link. Ini dilakukan jika untuk menuju suatu
network terdapat beberapa jalur (link). Tujuan dari load balance ini
agar tidak ada link yang mendapatkan beban yang lebih besar dari link
yang lain. Diharapkan dengan membagi beban ke dalam beberapa link
tersebut, maka akan tercapai keseimbangan (balance) penggunaan
link-link tersebut. Ada berbagai macam implementasi load balance
yang sering dijumpai di lapangan. Penerapan yang paling sering
ditemukan adalah load balancing pada saat suatu jaringan lokal
21
memiliki dua atau lebih koneksi ke internet. Koneksi-koneksi tersebut
dapat berasal dari ISP yang sama atau berasal dari ISP yang berbeda.
Dengan memiliki beberapa link maka optimalisasi utilitas sumber
akan semakin baik karena memiliki lebih dari satu link yang dapat
saling menjadi backup saat salah satu link lainnya terputus atau down.
Dengan memiliki beberapa link, maka jaringan pada waktu normal
juga memiliki realibilitas lebih tinggi.
Selama ini terdapat anggapan keliru tentang load balancing bahwa
dengan menggunakan teknik load balancing pada dua jalur ISP, maka
besar bandwidth akan menjadi dua kali lebih besar dari bandwidth
sebelum menggunakan load balancing. Konfigurasi load balancing
pada penerapannya tidak akan menambah besar bandwidth yang
diperoleh, tetapi bertugas untuk membagi trafik dari kedua bandwidth
dari dua jalur koneksi yang ada agar dapat terpakai secara maksimal.
Dalam penggunaan, load balancing tidaklah seperti rumus
matematika 1+1=2 namun lebih tepatnya adalah 1+1=1+1.
Dalam load balancing, proses pembagian beban memiliki metode
dan algoritma tersendiri dengan tetap bertujuan untuk menyesuaikan
pembagian beban menggunakan beberapa link yang ada.
Dalam load balancing pada RouterOS, terdapat beberapa hal yang
perlu diperhatikan dalam mengatur load balancing yaitu firewall
mangle dan static route. Firewall mangle adalah penandaan paket
sebelum masuk routing. Sedangkan static route mengatur kebijakan
routing atau rute jalur yang akan dilalui paket yang telah ditandai.
Terdapat beberapa metode Load Balancing yang dapat dilakukan
dengan menggunakan RouterOS antara lain, static route dengan
address list, Equal Cost Multi Path (ECMP), Nth, dan Per Connection
Classifier (PCC).
1. Equal Cost Multi Path (ECMP)
Equal Cost Multi Path (ECMP) adalah pemilihan jalur keluar
secara bergantian pada gateway. Contoh jika ada dua gateway, maka
paket akan keluar melewati kedua gateway dengan beban yang sama.
22
Nilai dari equal cost dapat didefinisikan secara tidak seimbang saat
routing, jika diantara kedua ISP memiliki kecepatan koneksi yang
berbeda. Jika kedua gateway memiliki bandwidth sebesar 1 Mbps dan
2 Mbps, maka saat konfigurasi routing menjadi “ip route add dst-
address0.0.0.0/0 gateway 192.168.1.1, 192.168.1.2, 192.168.1.2
check-gateway=ping” yang memiliki arti bahwa gateway pertama dan
kedua berbanding 1:2. (Dennis Burgess, 2009:115—116).
2. Nth
Nth adalah sebuah bilangan ke-N. Nth menggunakan
pembagian pemecahan koneksi yang di-mangle ke rute yang
dibuat untuk load balancing. Pada dasarnya koneksi yang masuk
ke proses di router akan menjadi satu arus yang sama walaupun
datang dari interface yang berbeda. Maka pada saat menerapkan
metode Nth akan diberikan batasan ke router untuk hanya
memproses koneksi dari sumber tertentu. Ketika router membuat
antrian baru untuk batasan yang telah diberikan, proses Nth akan
bekerja setelahnya. (Dennis Burgess, 2009:138).
3. Per Connection Classifier (PCC)
Per Connection Classifier (PCC) merupakan metode yang
menspesifikasikan suatu paket menuju gateway koneksi tertentu.
PCC mengelompokkan traffic koneksi yang melalui atau keluar
masuk router menjadi beberapa kelompok. Pengelompokkan ini
bisa dibedakan berdasarkan src-address, dst-address, dan src-
port. Mikrotik akan mengingat jalur gateway yang telah dilewati
diawal trafik koneksi, sehingga pada paket-paket data selanjutnya
yang masih berkaitan akan dilewatkan pada jalur gateway yang
sama dengan paket data sebelumnya yang sudah dikirim. (Dennis
Burgess, 2009:383).
23
2.2.4 Failover
Menurut Rendra Towidjojo (2012:121—123), failover adalah
teknik yang menerapkan beberapa jalur untuk mencapai suatu network
tujuan. Namun dalam keadaan normal hanya ada satu link yang
digunakan. Link yang lain berfungsi sebagai cadangan dan hanya akan
digunakan bila link utama terputus. Untuk menerapkan teknik seperti
ini, digunakan parameter distance pada saat akan menkofigurasikan
routing statik. Distance ini merupakan parameter yang menentukan
link mana yang akan lebih diutamakan untuk digunakan, bila ada
beberapa link yang tersedia untuk menuju satu jaringan. Link yang
memiliki nilai distance terkecil akan lebih diutamakan dibandingan
link lain. Semakin kecil nilai distance maka semakin tinggi nilai
kepercayaan terhadap link tersebut. Jika pada baris routing statik tidak
ditambahkan nilai distance, yang artinya link tersebut akan
menggunakan nilai default distance dari routing statik yaitu 1.
Gambar 2.11 Tabel Routing
(Sumber: Konsep & Implementasi Routing Dengan Router Mikrotik,
2012, p122)
Dapat dilihat pada gambar 2.11, terdapat dua entry dalam tabel
routing yang menuju jaringan 192.168.20.0/24 masing-masing
menggunakan gateway 10.10.10.2 dengan distance 1 dan gateway
172.16.10.2 dengan distance 250. Entry route dengan gateway
10.10.10.2 memiliki kode A (aktif) atau merupakan entry yang sedang
digunakan untuk mengirimkan data (link utama). Sedangkan entry
dengan gateway 172.16.10.2 tidak memiliki kode A (non aktif), ini
menandakan entry tersebut merupakan entry yang tidak digunakan
atau cadangan.
24
2.2.5 Per Connection Queue (PCQ)
Per Connection Queue (PCQ) bekerja dengan membuat sub-
stream berdasarkan pcq-classifier yang dapat berupa IP address
pengirim (src-address), IP address tujuan (dst-address), port
pengirim (src-port), maupun port tujuan (dst-port). PCQ akan
membagi rata bandwidth untuk setiap sub-stream, sehingga teknik ini
cocok untuk jaringan yang memiliki jumlah komputer yang banyak
dengan pembatasan bandwidth seragam. PCQ akan membuat sub-
stream sebanyak klien yang aktif mengakses internet seperti ilustrasi
pada gambar 2.12. (Rendra Towidjojo, 2013:241—244).
Gambar 2.12 Ilustrasi PCQ 1 Mbps
(Sumber: Mikrotik Kung Fu : Kitab 2, 2013, p241)
Untuk membuat sub-stream, PCQ dapat menggunakan parameter
src-address, dst-address, src-port maupun dst-port. Yang paling
banyak diimplementasikan adalah parameter src-address dan dst-
address ang dapat digunakan untuk melakukan manajemen bandwidth
baik untuk traffic upload maupun download. Jika ingin melakukan
manajemen bandwidth untuk aktifitas download, maka parameter
yang harus digunakan adalah dst-address (alamat IP tujuan). Karena
traffic download datangnya dari internet dan menuju jaringan lokal,
maka yang dijadikan pedoman bagi PCQ tentu adalah alamat IP
tujuan. Alamat IP tujuan ini bukan merupakan alamat IP di Internet,
melainkan alamat IP yang berasal dari komputer klien di jaringan
lokal. Ilustrasinya dapat dilihat pada gambar 2.13.
25
Gambar 2.13 Traffic Download
(Sumber: Mikrotik Kung Fu : Kitab 2, 2013, p242)
Sedangkan untuk traffic upload, parameter yang digunakan adalah
src-address. Ilustrasinya dapat dilihat pada gambar 2.14.
Gambar 2.14 Traffic Upload
(Sumber: Mikrotik Kung Fu : Kitab 2, 2013, p242)
Parameter pcq-rate dapat digunakan untuk membatasi bandwidth
maksimum yang bisa didapatkan oleh setiap sub-stream. Parameter ini
bisa mengatur bandwidth maksimum yang nantinya diberikan oleh
Simple Queue maupun Queue Tree. Gambar 2.15 yang
memperlihatkan pembagian bandwidth oleh PCQ dengan parameter
pcq-rate yang digunakan adalah 0.
Gambar 2.15 PCQ dengan parameter pcq-rate=0
(Sumber: Mikrotik Kung Fu : Kitab 2, 2013, p243)
26
Untuk pcq-rate=256kbps dapat hasilnya pada gambar 2.16.
Gambar 2.16 PCQ dengan parameter pcq-rate=256
(Sumber: Mikrotik Kung Fu : Kitab 2, 2013, p243)
2.2.6 Bandwidth Mangement
Menurut Rendra Towidjojo (2013:93), dalam mengelola
jaringan, sangat penting untuk mengendalikan pemakaian bandwidth
yang akan digunakan oleh user komputer. Jika tidak dikendalikan,
maka akan terjadi pemakaian bandwidth secara berlebihan oleh satu
atau beberapa user. Pemakaian yang berlebihan tersebut akan
menyebabkan komputer user yang lain tidak lagi mendapatkan alokasi
bandwidth. Pada akhirnya, jaringan yang ada tidak dapat memberikan
layanan secara maksimal kepada seluruh user yang ada. Keadaan ini
akan bertambah parah jika ternyata jaringan tersebut hanya memiliki
alokasi bandwidth Internet yang terbatas dan pengguna jaringan
tersebut rakus akan aktivitas download file-file besar dari Internet.
Router MikroTik memiliki fitur Queue yang dapat melakukan
pengaturan (manajemen) alokasi bandwidth badi setiap user. Dengan
menerapkan manajemen bandwidth, maka telah dilakukan usaha
perbaikan terhadap kualitas layanan di jaringan (Quality of Service).
Quality of Service atau QoS akan memberikan jaminan alokasi
bandwidth minimum pada setiap komputer user di dalam jaringan,
sehingga setiap komputer user tidak perlu khawatir akan tidak
mendapat bandwidth.
Dalam menjalankan Queue, router MikroTik memiliki dua cara,
yaitu:
1. Queue Simple, cara ini merupakan cara termudah untuk
melakukan pengaturan bandwidth, diterapkan pada jaringan skala
27
kecil sampai menengah untuk mengatur pemakaian bandwidth
upload dan download pada setiap user.
2. Queue Tree, cara ini relatif lebih rumit, namun dapat melakukan
pembatasan bandwidth berdasarkan group bahkan hirarki.
Terdapat fitur Mangle pada firewall jika akan menggunakan
Queue Tree.
2.2.7 NAT (Network Address Translation)
TCP/IP dibangun dengan ruang sebanyak 232 (4 milyar)
address. Anehnya lagi, hal ini ternyata belum cukup. Agar address
tersebut tidak terbuang secara percuma, RFC 1918 menspesifikasikan
blok-blok alamat yang tidak digunakan di Internet. Karena address ini
tidak digunakan di internet, maka mereka bebas digunakan dalam
jaringan pribadi, walaupun tetap harus dilakukan penerjemahan ke
dalam address yang dapat dihubungkan ke internet saat address
tersebut akan melintasi firewall. Dengan cara ini, host-host yang
berada di belakang sebuah firewall dapat berbagi public address saat
mengakses internet. Proses inilah yang disebut dengan Network
Address Translation (NAT). (Strassberg, Richard J. Gondek, dan
Gary Rollie, 2002:104)
Gambar 2.17 menunjukkan daftar blok address yang telah
disediakan oleh RFC 1918.
Gambar 2.17 Private Address dalam RFC 1918
(Sumber: Firewalls : the complete reference, 2002, p104)
Terdapat beberapa address untuk komputer host di sebuah
jaringan. Address yang sebenarnya digunakan untuk merujuk ke host
yang diberikan tergantung pada jaringan tujuan. Suatu hal yang
penting untuk tetap menjaga secara jelas host dan address yang
28
digunakan untuk rujukan. Vendor biasanya sering menggunakan
definisi mereka sendiri saat merujuk kepada implementasi dari NAT.
Misalnya, beberapa vendor akan mengacu pada sumber dan alamat
tujuan dalam referensi untuk setiap paket pada level network. Lainnya
akan merujuk ke sumber address host yang memulai koneksi pada
level session. Gambar (2.18) sebagai acuan source (S) dan destination
(D) yang berhubungan dengan setiap paket yang sedang terkirim.
Gambar 2.18 Network Address Translation
(Sumber: Firewalls and internet security : repelling the wily hacker,
2003, p344)
NAT biasa diimplementasikan dalam sebuah firewall, terpisah
dari policy atau rule set. Sangat penting untuk diingat bahwa jika
sebuah NAT telah didefinisikan untuk menerjemahkan address antara
satu host dengan host lainnya, tidak mengartikan bahwa host-host
tersebut dapat berkomunikasi. Komunikasi ini tetap dikontrol oleh
policy yang telah dibuat dalam rule set firewall itu sendiri.
2.3 Hasil Penelitian Sebelumnya
29
1. (Rabu. Jefry Alvonsius, Purwadi. Joko, Raharjo. Willy S.
Implementasi Load Balancing Web Server Menggunakan Metode LVS-
NAT. Jurnal Teknologi Komputer dan Informatika Universitas
Kristen Duta Wacana. Vol 8 No.2. 2012: 169-180)
Salah satu jenis layanan dari internet yaitu World Wide Web. World
Wide Web atau web adalah suatu cara mengakses informasi melalui media
internet. Web bisa juga dikatakan sebagai suatu model berbagi informasi
yang dibangun di atas media internet. Web menggunakan protokol HTTP
untuk mengirimkan data. Data tersebut tersebar di seluruh penjuru dunia
disimpan dalam media penyimpananan berupa server. Web server
bertanggung jawab melayani permintaan HTTP dari aplikasi klien yang
dikenal dengan web browser. Web server akan mencari data dari Uniform
Resource Locator (URL) yang diminta dan mengirimkan kembali
hasilnya dalam bentuk halaman-halaman web yang umumnya berbentuk
dokumen Hypertext Markup Language (HTML) dan semua isi dari suatu
situs ke komputer klien.
Seiring dengan berkembangnya kebutuhan pengguna dan peningkatan
permintaan pada situs maka kerja dari web server bertambah berat. Web
server yang handal selayaknya mampu melayani permintaan dari
pengguna dalam jumlah yang cukup besar dalam satu satuan waktu.
Namun terkadang web server mengalami down atau fail dimana web
server tidak dapat mampu lagi menangani jumlah permintaan yang sangat
besar dalam satu satuan waktu tersebut.
Salah satu solusi yang dapat dilakukan untuk mengatasi masalah
performa web server dalam hubungannya dengan jumlah request yang
meningkat adalah pemutakhiran perangkat keras web server namun solusi
ini hanya bersifat sementara. Maka dengan ini perlu diterapkan suatu
implementasi teknologi yang dapat menjadi solusi altenatif masalah di
atas. Teknik yang dianjurkan pada penelitian ini adalah implementasi
load balancing dimana beban kerja single server dibagi ke dalam
beberapa server yang ada.
Uji coba performasi Web Server memiliki bentuk–bentuk tersendiri
sebagai berikut :
30
a) Performance Test
Uji performansi digunakan untuk menguji setiap bagian dari suatu
Web server dengan tujuan untuk menemukan teknik terbaik mencapai
optimasi ketika traffic web meningkat.
b) Load Test
Load test dilakukan dengan pengujian website menggunakan estimasi
traffic dari sebuah website yang mampu dilayani. Caranya adalah
mendefinisikan waktu maksimum sebuah halaman web dimuat. Pada
akhir pengujian dilakukan pembandingan seberapa maksimum waktu
yang dibutuhkan untuk membuka halaman web pada sebuah Web
server.
c) Stress Test
Stress test adalah simulasi serangan "bruteforce" yangmenjalankan
muatan atau permintaan secara berlebihan menuju web server. Tujuan
stress test adalah untuk mengestimasi muatan maksimum sebuah web
server sanggup menanganinya.
Server load balancing adalah sebuah proses atau teknologi yang
mendistribusikan traffic sebuah situs kepada beberapa server
menggunakan sebuah perangkat jaringan. Perangkat tersebut menerima
traffic yang ditujukan pada suatu situs dan mendistribusikannya ke
beberapa server. Proses load balancing sepenuhnya transparan bagi end-
user. Load balancing dapat diimplementasikan dengan perangkat keras
khusus, perangkat lunak maupun gabungan keduanya. Konfigurasi
standar yang ada memberi gambaran bahwa satu mesin ditempatkan
diantara client dan server, mesin ini disebut sebagai director karena
tugasnya adalah memberikan balancing pada request dari client dan
server. Sebuah load balancer adalah perangkat jaringan yang dipasang
diantara client dan server, bekerja sebagai saklar untuk request dari client.
Load balancer mengimplementasikan beberapa metode penjadwalan yang
akan menentukan ke arah server mana request dan client akan diteruskan.
Beberapa keuntungan yang diperoleh dari teknik load balancing sebagai
berikut :
31
a) Flexibility : Server tidak lagi menjadi inti sistem dan resource utama,
tetapi menjadi bagian dari banyak server yang membentuk cluster.
Hal ini berarti bahwa performa per unit dari cluster tidak terlalu
diperhitungkan, tetapi performa cluster secara keseluruhan.
Sedangkan untuk meningkatkan performa dari cluster, server atau unit
baru dapat ditambahkan tanpa mengganti unit yang lama.
b) Scalability : Sistem tidak memerlukan desain ulang seluruh arsitektur
sistem untuk mengadaptasikan sistem tersebut ketika terjadi
perubahan pada komponen sistem.
c) Security : Untuk semua traffic yang melewati load balancer, aturan
keamanan dapat dimplementasikan dengan mudah. Dengan private
network digunakan untuk real servers, alamat IPnya tidak akan
diakses secara langsung dari luar sistem cluster.
d) High-availability : Load balancer dapat mengetahui kondisi real
server dalam sistem secara otomatis, jika terdapat real server yang
mati maka akan dihapus dari daftar real server, dan jika real server
tersebut kembali aktif maka akan dimasukkan ke dalam daftar real
server. Load balancer juga dapat dikonfigurasi redundant dengan
load balancer yang lain.
Setelah melakukan implementasi load balancing web server
menggunakan Linux Virtual Server dengan metode LVS-NAT, pengujian
kinerja web server hasil implementasi load balancing tersebut, serta
membandingkannya dengan kinerja web server tunggal maka didapatkan
kesimpulan sebagai berikut :
a) Implementasi load balancing web server menggunakan LVS-NAT
mampu meningkatkan nilai throughput web server dengan besaran
yang cukup signifikan hingga 2 kali lipat throughput web server
tunggal.
b) Implementasi load balancing web server menggunakan LVS-NAT
mampu meningkatkan response time dan mengoptimalkan CPU
Utilization dari web server namun peningkatan yang dihasilkan
memiliki nilai yang tidak terlalu besar sehingga tidak terlalu
signifikan.
32
c) Implementasi LVS-NAT menggunakan algoritma round robin lebih
handal dalam mengoptimalkan throughput, CPU Utilization, dan
response time dari web server jika dibandingkan dengan implementasi
LVS-NAT menggunakan algoritma least connection.
2. (K.Kungumaraj, M.Sc. B.L.I.S. M.Phil, An Efficient Load Balancing
Algorithm for A Distributed Computer System. International Journal
of Ccomputer and Technology Application. Vol 2 Issue 6 No.72. 2011:
4012-4020)
Algoritma Load Balancing ini mengedepankan sebuah proposal baru
untuk menyeimbangkan beban server. Sistem load balancing adalah satu
set penyangga pengganti untuk berbagi beban server, ketika beban
mereka melebihi batas. Teknik yang diusulkan memberikan cara yang
efektif untuk mengatasi masalah load balancing. Melayani lebih banyak
jumlah permintaan klien adalah tujuan utama dari setiap web server,
namun karena beberapa beban yang tak terduga, kinerja server dapat
menurun. Untuk mengatasi masalah ini , jaringan menyediakan cara yang
efisien untuk mendistribusikan pekerjaan mereka dengan sub server yang
juga dikenal sebagai server proxy. Mengalokasikan pekerjaan ke sub
server dengan waktu respon mereka adalah teknik yang diusulkan. Socket
layer dengan skema Load balancing telah diperkenalkan untuk mengatasi
masalah-masalah beban server. Menyimpan dan melayani secara efektif
dan aman lebih penting sehingga algoritma yang diinginkan akan
mengimplementasikan untuk distribusi beban dan peningkatan keamanan
bernama sebagai SSL_LB dan RSA. Menghitung waktu respon setiap
permintaan dari klien telah dilakukan dengan mengirimkan paket kosong
lebih ke jaringan untuk semua sub server . Dalam sistem Load Balancing,
skema distribusi beban berbasis SSL telah diperkenalkan untuk performa
yang lebih baik .
Aplikasi server Internet harus mampu berjalan di beberapa server
untuk menerima jumlah yang semakin meningkat dari pengguna dan
jaringan yang memerlukan kemampuan skala kinerja untuk menangani
volume besar permintaan klien tanpa membuat penundaan yang tidak
diinginkan. Jadi, algoritma load balancing harus dilaksanakan untuk
33
performa yang lebih baik serta meningkatkan kemampuan untuk
menangani lebih banyak jumlah pengguna. Untuk alasan ini, clustering
adalah kepentingan luas untuk perusahaan. Clustering memungkinkan
sekelompok server independen untuk dikelola sebagai sebuah sistem
tunggal untuk ketersediaan tinggi, pengelolaan yang lebih mudah, dan
skalabilitas yang lebih besar.
Sekarang ini, sangat sedikit perusahaan yang mampu untuk meng-host
situs web perusahaan mereka pada satu server monolitik. Sebaliknya, situs
yang digunakan pada cluster server untuk meningkatkan kinerja dan
skalabilitas. Untuk memberikan toleransi kesalahan dan menyembunyikan
detail cluster dari pengunjung situs, load balancing dan alat percepatan
situs aplikasi antara Internet dan server cluster, bertindak sebagai server
virtual.
Karena semakin populernya internet, server pusat data / jaringan yang
diantisipasi menjadi hambatan dalam hosting layanan berbasis jaringan,
meskipun bandwidth jaringan terus meningkat dan lebih cepat daripada
kapasitas server. Telah diamati bahwa server jaringan berkontribusi
sekitar 40 persen dari keseluruhan keterlambatan, dan penundaan ini
kemungkinan akan tumbuh dengan meningkatnya penggunaan isi web
yang dinamis. Untuk aplikasi berbasis web, waktu respon yang kurang
cepat memiliki implikasi pada keuangan yang signifikan.
Gambar 2.19 Model Sistem
(Sumber : An Efficient Load Balancing Algorithm for A Distributed Computer
System, 2011, p4013)
34
Gambar di atas merupakan model sistem secara keseluruhan.
Permintaan end user yang dikirim ke sistem load-balancing yang
menentukan server mana yang paling mampu memproses permintaan.
Kemudian meneruskan permintaan ke server. Server load balancing juga
dapat mendistribusikan beban kerja untuk firewall dan mengarahkan
permintaan ke server proxy dan server caching. Untuk mencapai
skalabilitas web server, perlu ditambahkan server lebih banyak untuk
mendistribusikan beban di antara kelompok server, yang juga dikenal
sebagai server cluster. Ketika beberapa web server yang hadir dalam
kelompok server, lalu lintas HTTP perlu merata di antara server. Server
ini harus menjadi sebagai salah satu web server ke web client, misalnya
sebuah browser internet.
Mekanisme load balancing yang digunakan untuk menyebarkan
permintaan HTTP dikenal sebagai IP spraying. Peralatan yang digunakan
untuk IP spraying juga disebut Load Dispatcher atau Network Dispatcher
atau biasa disebut Load Balancer. Dalam hal ini, IP spraying melakukan
intrusi setiap permintaan HTTP, dan mengarahkan mereka ke server di
dalam server cluster. Tergantung pada jenis sprayer yang terlibat,
arsitektur yang ada dapat memberikan skalabilitas, load balancing dan
failover.
Network Load Balancing adalah sistem yang lebih unggul pada sistem
yang sudah ada seperti round robin DNS (RRDNS), yang
mendistribusikan beban kerja di antara beberapa server tetapi tidak
menyediakan mekanisme untuk ketersediaan server. Jika server yang ada
di dalam host tersebut gagal, RRDNS tidak seperti Network Load
Balancing, sistem tersebut akan terus mengirimkan beban sampai network
administrator mendeteksi kegagalan dan menghapus server dari daftar
alamat DNS. Hal ini menyebabkan gangguan layanan untuk klien. Proyek
ini juga memiliki keunggulan dibandingkan solusi load balancing
perangkat keras dan software yang berbasis memperkenalkan titik tunggal
kegagalan atau kinerja kemacetan dengan menggunakan operator
terpusat. Karena proyek Load Balancing tidak memiliki persyaratan hak
milik perangkat keras, setiap komputer yang kompatibel standard industri
dapat digunakan. Hal ini memberikan penghematan biaya yang signifikan
35
bila dibandingkan dengan solusi load balancing hak milik perangkat
keras. Keuntungannya adalah meningkatkan skalabilitas, performa yang
tinggi, dan otomatis ada pemulihan ketika terjadi gangguan.
Penelitian ini adalah untuk mengurangi beban web server ketika
server sedang sibuk dan menyelidiki implikasi kinerja protokol SSL yang
menyediakan layanan aman dalam aplikasi web server berbasis cluster.
Tujuan akhir dari jurnal ini adalah untuk stimulasi skenario yang ada
sebagai proyek sesungguhnya, analisis, dan hasil evaluasi. Menggunakan
tiga server proxy, mengusulkan skema back-end forwarding untuk
mendistribusikan beban yang ringan ke server dan dimuat untuk
meningkatkan kinerja server dalam mendapatkan hasil yang lebih baik.
Dalam sistem ini diperiksa aspek yang berbeda dari penggunaan IP setiap
lemparan sebagai mekanisme untuk distribusi beban dan lokasi layanan
dalam internet.
3. (Mohammed I. Gumei, Nasir Faruk and A.A. Ayeni. Routing with
Load Balancing in Wireless Mesh Networks. International Journal of
Current Research. Vol 3 Issue 7. 2011: 87-92)
Wireless mesh networking (WMN) adalah pilihan lain scaling
jaringan nirkabel. Sebuah jaringan wireless mesh adalah jenis jaringan
nirkabel yang setiap node dapat berkomunikasi secara langsung dengan
satu atau lebih node yang berpasangan. Ini adalah bentuk jaringan ad hoc
yang membentuk mesh node nirkabel saling berhubungan. Perbedaan
antara jenis jaringan ini dan jaringan konvensional ad hoc adalah
perjalanan paket dalam jaringan yang selalu dari klien ke gateway node
atau sebaliknya dalam jaringan wireless mesh, sedangkan gerakan paket
dalam jaringan ad hoc adalah antara tergantung kesepakatan diantara
sepasang node yang ad di dalam jaringan. Dalam jaringan wireless mesh,
host node juga dapat berfungsi sebagai router untuk meneruskan lalu
lintas klien dalam mode multi-hop ke node yang terhubung dengan
internet, ketika jaringan ini digunakan untuk menyediakan akses internet.
Jaringan Wireless mesh menawarkan keuntungan melalui jaringan
nirkabel lainnya, ini termasuk penyebaran yang mudah, kehandalan yang
36
lebih besar, self-configuration, self-healing, dan skalabilitas. Node-node
dalam jaringan yang mampu membangun dan memelihara konektivitas
jala otomatis. Teknologi WMN telah menarik perhatian sebagai teknologi
akses broadband yang menjanjikan meskipun masih ada peningkatan
beberapa teknologi akses internet yang lain. Wilayah yang sangat luas
dapat memiliki akses ke broadband nirkabel menggunakan jaringan
wireless mesh tanpa perlu membuat infrastruktur yang mahal. WMN juga
dapat digunakan untuk berbagai aplikasi seperti jaringan akses radio
selular atau WLAN hotspot multi- hopping, sistem pengawasan seluruh
kota, jaringan sensor nirkabel (WSNs), broadband rumah dan jaringan
dalam kantor, jaringan sistem transportasi cerdas, dan lain-lain. Meskipun
WMN menawarkan akses broadband nirkabel untuk pengguna
masyarakat dan perusahaan, ada masalah yang membatasi kapasitas
jaringan yaitu harus diatasi dengan mengeksploitasi kinerja jaringan
secara optimal. Kapasitas jaringan wireless mesh dipengaruhi oleh banyak
faktor seperti arsitektur jaringan, mobilitas node, kepadatan node, pola
lalu lintas, jumlah saluran yang digunakan.
Load balancing merupakan masalah penting yang perlu ditangani
dalam WMN. Node dalam WMN yang berkomunikasi dalam multihop
fashion, ini membuat node yang dekat dengan pusat jaringan memiliki
beban lalu lintas yang lebih tinggi karena mereka akan lebih sering
dilalui. Load balancing sangat penting untuk memanfaatkan seluruh jalur
yang tersedia ke tujuan dan mencegah overloading node yang dekat
dengan pusat jaringan. Kapasitas throughput WMN tidak membaik
dengan meningkatnya jumlah gateway node kecuali skema load
balancing juga digunakan dalam jaringan. Sebuah skema load balancing
diperlukan untuk menyeimbangkan lalu lintas dalam jaringan di berbagai
gateway nodes dan menghindari overloading setiap gateway nodes.
Routing dalam jaringan adalah alat untuk menemukan sumber untuk
jalur tujuan untuk meneruskan pesan. Komunikasi dalam jaringan atau
internetwork dapat dicapai dengan menggunakan protokol routing.
Karena sifat tak terduga dari lingkungan jaringan nirkabel, routing
protokol harus cepat dalam beradaptasi dengan perubahan rute ketika ada
rute yang terputus karena mobilitas node. Masalah routing yang utama
37
dalam WMN adalah menemukan jalan throughput yang handal dan cepat
ke tujuan. WMN adalah jaringan multi-hop dengan beberapa karakteristik
umum ke jaringan ad hoc. Hal ini membuat protokol yang dirancang
untuk jaringan ad hoc juga bekerja di WMN. Penyebaran WMN saat ini
menggunakan routing protokol yang diusulkan untuk jaringan ad hoc
seperti AODV, DSR, dan OLSR.
Penyebaran WMN yang paling populer saat ini adalah AODV. Proses
routing AODV dalam WMN adalah sebagai berikut.
Gambar 2.20 Skenario WMN
(Sumber : Routing with Load Balancing in Wireless Mesh Networks, 2011,
p88)
Mari mempertimbangkan jaringan mesh skenario nirkabel di Gambar
2.20 di atas dengan gateway (GW) untuk menghubungkan jaringan ke
internet, sedangkan node yang tersisa adalah mesh router. Node_3,
node_2, dan node_1 mengirimkan data ke gateway menggunakan
terbentuk dengan node_1 dengan protokol AODV. Asumsikan setiap
node mengirimkan beban sebesar G, kemudian node_1 mengirim beban
trafik 3G. Ketika node_4 memiliki data untuk dikirim ke gateway node,
node tersebut mencoba untuk membuat rute ke tujuan. Menggunakan
protokol routing AODV baik node_1 dan node_6 dalam jangkauan
transmisi menerima rute pesan permintaannya (paket RREQ) dan
broadcast ulang paket itu. Node_1 melanjutkan broadcast paket RREQ
untuk mencapai gateway dan reverse path yang terbentuk melalui jalur
itu. Dengan cara yang sama setelah menerima paket RREQ dari node_4,
node_6 melakukan broadcast ulang dan paket RREQ mencapai gateway
38
node melalui node_5 dan node_6, reversed path juga dibentuk melalui
node ini seperti yang ditunjukkan pada Gambar 2.14. Sekarang Gateway
node memiliki dua paket RREQ dari dua jalan yang berbeda dengan
nomor hop yang berbeda, kemudian memilih jalan dengan jumlah hop
terendah (dalam skenario ini rute melalui node_1) dan mengirim pesan
rute balasan (paket RREP) untuk membuat rute melalui reversed path
yang sudah terbentuk seperti yang ditunjukkan di Gambar.2.21.
Gambar 2.21 WMN yang menggunakan AODV routing protocol
(Sumber : Routing with Load Balancing in Wireless Mesh Networks, 2011,
p89)
Jadi, teknologi WMN telah menarik perhatian sebagai teknologi akses
broadband yang menjanjikan meskipun jumlah peningkatan teknologi
akses internet terus bertambah. Wilayah yang sangat luas dapat memiliki
akses ke nirkabel broadband menggunakan WMN tanpa perlu
infrastruktur mahal. Modifikasi yang diusulkan AODV routing protocol
adalah untuk menggabungkan proses pencarian rute dengan teknik load
balancing untuk meningkatkan kinerja routing protocol yang digunakan
dalam WMN. Modifikasi sederhana ini untuk mencegah overloading
AODV setiap node dan memanfaatkan semua gateway node di dalam
jaringan secara efisien.
Top Related