USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

61
USULAN PENELITIAN S1 IDENTIFIKASI SUARA MANUSIA MENGGUNAKAN MODULAR NEURAL NETWORK YANG DIMODIFIKASI DENGAN ALGORITMA BACTERIAL FORAGING OPTIMIZATION UNTUK PRESENSI MAHASISWA Logo Undana (Diameter = 5,5, cm) Fadly Rano Lado 0706082987 JURUSAN ILMU KOMPUTER FAKULTAS SAINS DAN TEKNIK UNIVERSITAS NUSA CENDANA KUPANG

Transcript of USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Page 1: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

USULAN PENELITIAN S1

IDENTIFIKASI SUARA MANUSIA MENGGUNAKAN MODULAR

NEURAL NETWORK YANG DIMODIFIKASI DENGAN ALGORITMA

BACTERIAL FORAGING OPTIMIZATION UNTUK PRESENSI

MAHASISWA

Logo Undana

(Diameter = 5,5, cm)

Fadly Rano Lado

0706082987

JURUSAN ILMU KOMPUTER

FAKULTAS SAINS DAN TEKNIK

UNIVERSITAS NUSA CENDANA

KUPANG

2013

Page 2: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

HALAMAN PERSETUJUAN

USULAN PENELITIAN S1

IDENTIFIKASI SUARA MENGGUNAKAN MNN YANG DIMODIFIKASI

UNTUK ABSENSI MAHASISWA

Diusulkan oleh

Fadly rano lado

0706082987

Telah disetujui

Pada tanggal 12 november 2012

Pembimbing

Adriana Fanggidae

Pembimbing I

Page 3: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Apryanto Poli

Pembimbing II

DAFTAR ISI

Contents

DAFTAR ISI..........................................................................................................................3

BAB I...................................................................................................................................4

1.1. Latar Belakang....................................................................................................4

1.2. Rumusan Masalah..............................................................................................5

1.3. Batasan Masalah................................................................................................5

1.4. Tujuan.................................................................................................................6

1.5. Manfaat..............................................................................................................6

1.6. Tinjauan Pustaka................................................................................................6

1.7. Metodologi Penelitian........................................................................................8

1.8. Sistematika Penulisan.......................................................................................10

BAB II................................................................................................................................11

Transformasi Wavelet Diskrit........................................................................................11

Artficial Neural Network...............................................................................................11

Page 4: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Algoritma Training Backpropagation............................................................................11

Modular Neural Network.............................................................................................15

Particle Swarm Optimization........................................................................................27

BAB III...............................................................................................................................35

ANALISIS DAN PERANCANGAN SISTEM............................................................................35

DAFTAR PUSTAKA......................................................................................................36

Page 5: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

BAB I

PENDAHULUAN

1.1. Latar Belakang

Presensi merupakan sarana yang digunakan untuk mengetahui jumlah

kehadiran anggota dalam suatu instansi. Dalam Universitas Nusa Cendana

presensi befungsi sebagai salah satu persyaratan apakah seorang mahasiswa layak

mengikuti ujian tengah semester dan ujian akhir semester pada matakuliah yang ia

programkan atau tidak. Presensi mahasiswa yang umumnya digunakan masih

bersifat manual dalam artian masih menggunakan tanda tangan. Jadi presensi akan

dibagikan kepada mahasiswa, dan mahasiswa harus menandatanganinya sebagai

bukti kehadirannya. Pola seperti ini, membuat presensi gampang dimanipulasi

oleh mahasiswa dengan meniru tanda tangan. Hal ini membuat mahasiswa bisa

dengan mudah tidak mengikuti suatu kelas tanpa adanya absen. Salah satu metode

pendekatan untuk mengatasi masalah ini adalah dengan presensi menggunakan

identifikasi suara.

Presensi dengan menggunakan identifikasi suara mempunyai konsep dasar

dari otak manusia yang mampu untuk mengenali orang-orang disekitarnya hanya

dengan mendengarkan suara orang tersebut. Otak manusia terdiri dari jaringan-

jaringan syaraf biologis yang dapat mempelajari suatu pola dan mengenalinya.

Suatu teknik yang dibuat dengan memodelkan otak manusia adalah jaringan

syaraf tiruan/Artificial Neural Network (ANN). Seperti pada otak manusia, ANN

terdiri atas neuron-neuron yang saling berhubungan yang dapat bekerja sama satu

dengan yang lainnya untuk membentuk suatu system. ANN dapat belajar untuk

mengenali suatu pola melalui pembelajaran dan diharapkan dapat memecahkan

masalah-masalah yang ada. Terdapat berbagai jenis ANN yang masing-masing

Page 6: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

memiliki arsitektur, fungsi aktivasi dan perhitungan proses yang berbeda-beda.

Dari seluruh jenis ANN, metode Multi Layer Perceptron (MLP) dengan algoritma

Backpropagation merupakan metode yang paling populer digunakan, karena

terbukti mampu untuk menyelesaikan berbagai macam masalah.

Penelitian mengenai identifikasi suara menggunakan MLP dengan

algoritma Backpropagation (BP) sudah banyak dilakukan (Agustini , 2006)

(Yudho DN, et al., 2011). Akurasi yang didapat sudah mencapai 86% (Agustini ,

2006). MLP merupakan ANN yang mempunyai struktur jaringan monolithic.

Hasil kerja jaringan ini baik pada ukuran input yang sangat kecil. Namun,

kerumitan bertambah dan laju performa berkurang dengan bertambahnya dimensi

input. Banyak ide memasukkan Modularity sebagai konsep dasarnya. Albrecht

Schmidt dan Zuhair Bandar menggunakan pendekatan yang sama yaitu

menggunakan Modular Neural Network (MNN). MNN merupakan ANN yang

kompleks dan merupakan stuktur jaringan yang modular. Pada gambar 1.1

memperlihatkan perbandingan antara struktur jaringan monolithic dan struktur

jaringan modular (Schmidt & Bandar, 1997).

Gambar 1.1 memperlihatkan bahwa performansi dari struktur jaringan

modular dapat mengenali input yang memiliki noise lebih baik dari struktur

jaringan monolithic. MNN ini menggunakan arsitektur MLP dengan algoritma BP

untuk proses pembelajaran. BP memiliki kecepatan konvergen yang lambat,

mudah masuk ke dalam nilai ekstrim parsial dan lemah kemampuannya dalam

pencarian global (Misbahuddin, 2011). Salah satu pendekatan lain untu optimasi

bobot adalah menggunakan Bacterial Foraging Optimization Algorithm (BFOA).

Page 7: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Gambar 1.1. Performansi dari input yang memiliki noise (Schmidt & Bandar,

1997)

Pada penelitian yang dilakukan oleh Al-Hadi dan Hashim (Al-Hadi & Hashim,

2012) menunjukkan bahwa Bacterial Foraging Optimization Algorithm

memberikan perfomansi yang lebih baik dalam hal tingkat konvergensi dan

akurasi klasifikasi.

Karena hal-hal tersebutlah penulis mencoba pendekatan lain untuk

identifikasi suara dalam studi kasus absensi mahasiswa, yaitu dengan MNN yang

dimodifikasi dengan algoritma evolusi PSO untuk training pada sistem.

1.2. Rumusan Masalah

1. Bagaimana membangun sebuah system presensi mahasiswa menggunakan

identifikasi suara berbasis MNN yang dimodifikasi dengan BFOA

2. Berapa besar akurasi dari system presensi mahasiswa barbasis MNN yang

dimodifikasi dengan BFOA dalam mengenali suara seseorang

3. Faktor-faktor apa saja yang mempengaruhi akurasi dari sistem

Page 8: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

4. Bagaimana cara terbaik pengambilan sample agar mendapatkan akurasi

yang baik

1.3. Batasan Masalah

Sample data untuk uji coba diambil dari sample suara mahasiswa-

mahasiswa pada kelas mata kuliah Algoritma Pemrograman II di jurusan Ilmu

Komputer Universitas Nusa Cendana tahun ajaran 2012/2013.

1.4. Tujuan

1. Merancang dan membangun system presensi identifikasi suara

menggunakan MNN yang dimodifikasi dengan BFOA

2. Mengujicoba sistem yang dirancang untuk mengetahui sebarapa besar

akurasinya

1.5. Manfaat

System yang dibangun dalam penelitian ini dapat dijadikan model untuk

membangun presensi yang lebih aman sehingga meminimalkan manipulasi.

1.6. Tinjauan Pustaka

Penelitian yang berhubungan dengan identifikasi suara manusia telah

banyak dilakukan sebelumnya. Berikut ini merupakan ulasan mengenai penelitian

yang sudah pernah dilakukan :

Identifikasi suara yang dilakukan oleh Vicky Zilvan dan Furqon Hensan

Muttaqien menggunakan metode algoritma Voting Feature Intervals (VFI) 5

Page 9: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

dengan Mel Frequency Cepstrum Coefficients (MFCC) sebagai pengekstraksi ciri

suara. Akurasi tertinggi yang didapat sebesar 97 % (data latih = 38, data uji = 20)

untuk data suara tanpa noise. Sedangkan untuk suara bernoise dengan SNR

sebesar 30 dB, akurasi tertinggi mencapai 81,5 % dan untuk suara bernoise

dengan SNR sebersar 20 dB tingkat akurasi tertinggi mencapai 59 %. Dapat

dilihat bahwa penggunaan metode diatas belum cukup handal untuk

mengidentifikasi suara bernoise yang cukup tinggi (Silvan & Muttaqien, 2011).

Penelitian yang dilakukan oleh Wael Al-Sawalmeh dan kawan-kawan

menggunakan metode Feed Forward Backpropagation Neural Network

(FFBPNN) dengan MFCC dan Continuous Wavelet Transform (CWT) untuk

ekstraksi ciri. Penelitian ini menggunakan 1000 data sample dengan Akurasi

tertinggi yang dicapai sebesar 99,7% pada SNR -6 dB (Al-Sawalmeh, et al.,

2010).

Selanjutnya dalam penelitian yang dilakukan Theodorus Yudho D N dan

kawan-kawan pada 10 orang responden mendapatkan tingkat akurasi tertinggi

sebesar 97% (Yudho DN, et al., 2011). Sedangkan penelitian yang dilakukan

Ketut Agustini dengan 100 data sample mendapatkan tingkat akurasi tertinggi

sebesar 86 % (Agustini , 2006). Kedua penelitian ini sama-sama menggunakan

metode ANN MLP dengan algoritma BP dan Diskret Wavelet Transform (DWT)

untuk ekstraksi ciri.

Dalam penelitian yang dilakukan Pawar dan Badave, menggunakan

metode FFBPNN dengan DWT mendapatkan tingkat akurasi tertinggi sebesar 98

% dengan 390 data sample (Pawar & Badave, 2011).

Penelitian yang dilakukan oleh Dr. Anupam Shukla dan kawan-kawan

dengan 100 data sample mendapatkan akurasi tertinggi sebesar 97,5 %. Penelitian

ini menggunakan MNN dan Wavelet Transform (WT) sebagai ekstraksi ciri

(Shukla, et al., 2009).

Page 10: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Pada penelitian yang dilakukan Albrecht Schmidt dan Zuhair Bandar

menjelaskan bahwa ANN MNN merupakan solusi dari masalah ruang input yang

besar. Hasil dari penelitian ini memperlihatkan bahwa ANN MNN dapat

mengenali input yang memiliki noise lebih baik daripada ANN yang memiliki

struktur jaringan monolithic (Schmidt & Bandar, 1997).

Pendekatan yang dilakukan oleh penulis

Pada penelitian ini, penulis merancang system dengan pendekatan lain.

Penulis mencoba alternative lain untuk identifikasi suara lebih khusunya untuk

absensi mahasiswa dengan menggunakan metode Modular Neural Network yang

dimodifikasi dengan algoritam PSO untuk training dan DWT sebagai ekstraksi

cirinya.

1.7. Keaslian Penelitian

Keaslian penelitian yang dilakukan pada penelitian ini terdapat pada

proses training system, yaitu menggunakan struktur jaringan modular (Modular

Neural Network) yang algoritma untuk optimasi bobot dimodifikasi dengan

BFOA. Untuk lebih jelasnya dapat dilihat pada table 1.1.

Page 11: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Table 1.1. Keaslian Penelitian

Metode

ekstraksi

ciri

Metode

pengenalan

pola

Arsitektur

jaringan

Tipe

struktur

jaringan

Optimasi

bobot

Citation

MFCC VFI5 - - - (Silvan & Muttaqien,

2011)

CWT,

MFCC

ANN FF Monolithic BP (Al-Sawalmeh, et al.,

2010)

DWT ANN MLP Monolithic BP (Yudho DN, et al.,

2011)

DWT ANN MLP Monolithic BP (Agustini , 2006)

DWT ANN FF Monolithic BP (Pawar & Badave,

2011)

WT ANN MLP Modular BP (Shukla, et al., 2009)

- ANN MLP Modular BP (Schmidt & Bandar,

1997)

DWT ANN MLP Modular BFOA USULAN

1.8. Metodologi Penelitian

Metodologi yang digunakan dalam penelitian ini mempunyai beberapa

tahapan, sebagai berikut :

1. Identifikasi masalah

Dalam tahapan ini dilakukan identifikasi terhadap masalah absensi pada

mahasiswa. Dari permasalahan yang ada pada absensi mahasiswa, akan

Page 12: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

dicoba dibuat hipotesis yang kemudian dilakukan penelitian untuk

membuktikan hipotesis tersebut.

2. Pengumpulan data dan literatur

Literatur-literatur diambil dari penelitian-penelitian sebelumnya yang

berhubungan dengan absensi mahasiswa menggunakan identifikasi suara.

Literatur diambil dari jurnal-jurnal ilmiah dalam bidang ilmu komputer

baik dari dalam negeri maupun dari luar negeri.

3. Perancangan dan implementasi system

Hal-hal yang dilakukan meliputi perancangan bagan alir dari system dan

perancangan antarmuka pemakai (user interface). Dalam perancangan

bagan alir alir maupun antarmuka pemakai, dibagai menjadi dua tahapan.

Tahapan yang pertama adalah proses training yang terdiri dari 6 buah

block. Block yang pertama adalah suara masukan, yaitu sinyal analog dari

pembicara, block kedua sinyal analog dirubah dalam bentuk digital, block

ketiga dilakukan proses blocking dan windowing yang bertujuan

meminilmakan diskontinuitas sinyal pada bagian awal dan akhir sinyal

suara, block keempat melakukan proses ektraksi ciri menggunakan metode

DWT sehingga menghasilkan data yang berdimensi lebih kecil dengan

tanpa merubah karakteristik sinyal suara tersebut, block kelima adalah

proses training menggunakan metode MNN yang dimodifikasi dengan

PSO, block terakhir merupakan output dari training yaitu suatu pola yang

akan digunakan sebagai referensi untuk proses testing.

Tahapan yang kedua ialah proses testing yang terdiri dari 6 block juga.

Block pertama sampai keempat sama dengan tahapan yang pertama. Block

kelima merupakan proses maching data dengan pola, block terakhir adalah

pemberian hasil dari proses matching.

Page 13: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

4. Ujicoba dan analisa keluaran system

Ujicoba dilakukan pada salah satu kelas di jurusan Ilmu Komputer

Universitas Nusa Cendana pada kurang lebih 25 orang mahasiswa. Ada

empat cara pengambilan sample yang akan dilakukan untuk ujicoba. Yang

pertama setiap mahasiswa mengucapkan sebuah kata (“SAYA”). Cara

kedua setiap mahasiswa mengucapkan 2 kata (“ILMU KOMUTER”).

Pada cara yang pertama dan kedua, pengambilan sample sebanyak 5 kali

untuk suara yang tidak/sedikit memiliki noise dan 5 kali untuk suara yang

memiliki banyak noise. Cara yang ketiga setiap mahasiswa mengucapkan

kalimat yang panjang sebanyak 1 kali untuk suara yang tidak/sedikit

memiliki noise dan 1 kali untuk suara yang memiliki banyak noise.

Kalimat panjang yang direkam akan dipotong dalam durasi tertentu

sehingga menghasilkan beberapa sample data untuk setiap mahasiswa.

cara yang terakhir mirip dengan cara ketiga, hanya perekaman dilakukan

sebanyak 5 kali untuk suara yang tidak/sedikit memiliki noise dan 5 kali

untuk yang memiliki banyak noise.

Sample data tersebut akan dianalisa keluaranya dari system yang akan

dibuat sehingga bisa dibuat kesimpulan.

5. Evaluasi

Dari ujicoba dan analisa keluaran yang dilakukan, akan dibuat kesimpulan

seberapa efisienkah system yang dibuat dapat mengenali karakteristik

suara seseorang dan berapa besar tingkat identifikasi yang dicapai.

Page 14: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

1.9. Sistematika Penulisan

Sistematika penulisan pada penelitian ini adalah sebagai berikut :

BAB I : PENDAHULUAN

Bab ini berisi latar belakang, rumusan masalah, batasan masalah,

tujuan, manfaat, keaslian penelitian, metodologi penelitian, tinjauan

pustakan dan sistematika penulisan

BAB II : LANDASAN TEORI

Bab ini berisi dasar-dasar teori yang digunakan dalam penelitian

BAB III : ANALISIS DAN PERANCANGAN SISTEM

Dalam bab ini akan dianlisis permasalahan yang ada dan dibuat

perancangan system berdasarkan analisis permasalahn

BAB IV : IMPLEMENTASI

Bab ini membahas implementasi dari system yang telah dibuat

pada bab sebelumnya

BAB V : KESIMPULAN DAN SARAN

Bab ini berisi kesimpulan dari hasil penelitian yang telah dilakukan

dan saran-saran untuk peneliti yang ingin meneliti masalah yang

serupa

Page 15: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

BAB II

LANDASAN TEORI

2.1. Transformasi Wavelet Diskrit

2.2. Artficial Neural Network

Artificial Neural Network (ANN) adalah salah satu metode penyelesaian

masalah dalam kecerdasan buatan yang memiliki karakteristik menyerupai

jaringan syaraf biologis. Seperti halnya pada jaringan syaraf biologis, ANN

tersusun dari sejumlah sel syaraf (neuron) yang saling dihubungkan dengan jalur

koneksi (sinapsis). ANN menjanjikan dapat digunakan pada banyak aplikasi,

terutama untuk menyelesaikan masalah rumit yang sangat tidak linier. Umumnya,

ANN digunakan untuk pengenalan pola, pengolahan sinyal dan peramalan.

Terdapat berbagai jenis ANN yang masing-masing memiliki arsitektur,

fungsi aktivasi dan perhitungan proses yang berbeda, seperti jaringan Hebbian,

Perceptron, Adaline, Boltzman, Hopfield, Kohonen, Multi Layer Perceptron

(MLP), Learning Vector Quatization (LVQ), dan lainnya. Dari seluruh jenis ANN,

metode Multi Layer Perceptron (MLP) dengan algoritma Backpropagation

merupakan metode yang paling populer digunakan karena terbukti mampu untuk

menyelesaikan berbagai macam masalah.

X1

X2

Z1

Y

Page 16: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

2.2.1. Algoritma Training Backpropagation

Backpropagation merupakan algoritma pembelajaran yang terawasi dan

biasanya digunakan oleh perceptron dengan banyak lapisan untuk mengubah

bobot-bobot yang terhubung dengan neuron-neuron yang ada pada lapisan

tersembunyinya. Algoritma backpropagation menggunakan error ouput untuk

mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk

mendapatkan error ini, tahap perambatan maju (forward propagation) harus

dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron diaktifkan

dengan menggunakan fungsi aktivasi yang dapat dideferensiasikan, seperti

sigmoid.

Arsitektur jaringan backpropagation dapat dilihat pada gambar dibawah ini :

Algoritma backpropagation :

Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup

kecil).

Tetapkan : Maksimum Epoh, Target Error, dan Learning Rate (a).

Inisialisasikan : Epoh = 0.

Z2

X3

11

Page 17: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Kerjakan langkah-langkah berikut selama (Epoh < Maksimum Epoh) dan

(MSE < Target Error) :

1. Epoh = Epoh + 1

2. Untuk tiap-tiap pasangan elemen yang akan dilakukan pembelajaran

kerjakan :

Feedforward:

a. Tiap-tiap unit input ( X i i=1,2,3 , …,n ) menerima sinyal x i dan

meneruskan sinyal tersebut ke semua unit pada lapisan yang ada di

atasnya (lapisan tersembunyi).

b. Tiap-tiap unit pada suat lapisan tersembunyi ( Z i , j=1,2,3 ,…, p )

menjumlahkan sinyal-sinyal input terbobot:

z¿ j=b1 j+∑i=1

n

xi v ij

Gunakan fungsi aktivasi untuk menghitung sinyal outputnya:

z j=f ( z¿ j )

dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit-

unit output).

c. Tiap-tiap unit output (Y k , k=1,2,3 ,…,m ) menjumlahkan sinyal-

sinyal input terbobot.

y¿k=b 2k+∑i=1

p

zi w jk

Gunakan fungsi aktivasi untuk menghitung sinyal outputnya:

yk=f ( y¿k )

Page 18: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya

(unit-unit ouput).

Catatan:

Langkah (b) dilakukan sebanyak jumlah lapisan tersembunyi.

Backpropagation

d. Tiap-tiap unit output (Y k , k=1,2,3 ,…,m ) menerima target pola

yang berhubungan dengan pola input pembelajaran, hitung

informasi errornya:

δ 2k=(t k− yk ) f ' ( y¿k )

φ 2 jk=dk z j

β 2k=dk

Kemudian hitung koreksi bobot (yang nantinya akan digunakan

untuk memperbaiki nilai w jk).

∆ w jk=α φ jk

Hitung juga koreksi bias (yang nantinya akan digunakan untuk

memperbaiki nilai b 2k):

∆ b 2k=α βk

Langkah (d) ini juga dilakukan sebanyak jumlah lapisan

tersembunyi, yaitu menghitung informasi error dari suatu lapisan

tersembunyi ke lapisan tersembunyi sebelumnya.

Page 19: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

e. Tiap-tiap unit tersembunyi ( Z j , j=1,2,3 , …, p ) menjumlahkan delta

inputnya (dari unit-unit yang berada pada lapisan di atasnya):

δ ¿ j=∑k=1

m

δ k w jk

Kalikan nilai ini dengan fungsi turunan dari fungsi aktivasinya

untuk menghitung informasi error:

δ 1 j=δ ¿ j f ' ¿

φ 1ij=δ j x j

β 1 j=δ 1 j

Kemudian hitung koreksi bobot (yang nantinya akan digunakan

untuk memperbaiki nilai v ij).

∆ v ij=α φ1ij

Hitung juga koreksi bias (yang nantinya akan digunakan untuk

memperbaiki nilai b 1 j).

∆ b1 j=α φ 1 j

f. Tiap-tiap output (Y k , k=1,2,3 ,…,m ) memperbaiki bias dan

bobotnya ( j=0,1,2 , …, p ):

w jk (baru)=w jk ( lama )+∆ w jk

b 2k (baru )=b 2k ( lama )+∆ b2k

Tiap-tiap unit tersembunyi ( Z j , j=1,2,3 , …, p ) memperbaiki bias

dan bobotnya ( i=0,1,2 ,…, n ):

V ij ( baru)=V ij ( lama )+∆ V ij

Page 20: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

b 1 j (baru )=b1 j ( lama )+∆ b 1 j

3. Hitung MSE.

Inisialisasi bobot awal secara random

Pemilihan bobot awal sangat mempengaruhi jaringan syaraf dalam

mencapai minimum global (atau mungkin hanya local saja) terhadap

nilai error, serta cepat tidaknya proses pelatihan menuju

kekonvergenan. Apabila nilai bobot awal terlalu besar, maka input ke

setiap lapisan tersembunyi atau lapisan output akan jatuh pada daerah

dimana turunan fungsi sigmoid akan sangat kecil. Sebaiknya, apabila

nilai bobot awal terlalu kecil, maka input ke setiap lapisan tersembunyi

atau lapisan output akan sangat kecil, yang akan menyebabkan proses

pelatihan akan berjalan sangat lambat. Biasanya bobot awal yang

diinisialisasi secara random dengan nilai antara -0.5 samapai 0.5 (atau

-1 sampai 1, atau interval yang lainnya).

2.2.2. Modular Neural Network

Arsitektur Jaringan

System jaringan yang diusulkan terdiri dari sebuah lapisan modul input dan

sebuah tambahan decision modul. Semua sub jaringan adalah MLP, hanya jumlah

input dan jumlah output dari modul yang ditentukan oleh system. Struktur intenal

seperti jumlah hidden layer dan jumlah neuron dalam setiap hidden layer dapat

ditentukan secara bebas dari keseluruhan arsitektur.

Setiap variable input terhubung hanya dengan satu modul input yang

hubungannya dipilih secara acak. Output dari semua modul input dihubungkan ke

Page 21: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

jaringan decision. Dalam penelitian ini dimensi dari vector input dilambangkan

dengan l dan jumlah kelas dilambangkan dengan k.

Untuk menentukan sebuah jaringan modular perlu untuk menetapkan baik jumlah

input per modul input ataupun jumlah modul input. Parameter-parameter ini

bergantung satu sama lain. Disini diasumsikan bahwa jumlah input per modul

pada layer pertama dilambangkan dengan n; jumlah modul input dalam input

layer dapat dihitung dengan m=⌈ ln⌉.

Asumsi selanjutnya adalah bahwam=l ∙ n. Jika hal ini tidak terjadi, bagian sisa

input dapat dihubungkan ke input yang tetap/konstan; Dalam implementasi pada

model, semua input bebas dihubungkan ke nilai yang tetap ‘0’. Dengan alternative

jika itu akan memungkinkan untuk mengubah ukuran satu modul atau sekelompok

modul.

Setiap modul dalam layer input dapat mempunyai baik k ataupun ⌈ log2 k ⌉ output.

Jaringan dengan k output lanjutan ditunjukkan sebagai perwakilan lanjutan yang

besar. Itu hanya berguna jika jumlah kelas sangat kecil. Untuk masalah dengan

jumlah kelas, perwakilan lanjutan yang kecil (⌈ log2 k ⌉) adalah lebih sesuai.

Dari sebuah sudut pandang teory informasi menunjukkan bahwa perwakilan

lanjutan kecil akan cukup, Karen hanya jumlah neuron output yang diperlukan

untuk mewakili semua kelas dalam sebuah code biner.

Jaringan decision mempunyai (m ∙k ) atau (m ∙ ⌈ log2 k ⌉ ) input, bergantung pada

perwakilan lanjutan yang dipakai. Jumla output adalah k , satau neuron output

untuk setiap kelas. Struktur dari jaringan modular dapat dilihat pada gambar 2.1.

yang menggunakan sebuah perwakilan lanjutan yang kecil. Fungsi π : X → X

memberikan sebuah permutasi dimana X={1…l }. Permutasi ini dipilih secara

acak dan tetap/konstan untuk sebuah jaringan .

Page 22: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Definisi : Sebuah Modul

Sebuah modul adalah sebuah jaringan syaraf multi layer feedforward yang

didefinisikan dengan 3-tuple :

M=( a ,b ,H )

Dimana :

a = jumlah input dari modul

b = jumlah node output

ℋ = sebuah list berisi jumlah neuron dari setiap hidden layer

Contoh :

Sebuah modul multilayer Perceptron dengan 8 input, 12 neuron pada hidden layer

pertama, dan 10 neuron pada hidden layer kedua, dan 4 output dapat digambarkan

sebagai berikut : M=( 8 ,4 , [ 12, 10 ] ).

Definisi : sebuah Modular Neural Network

Sebuah MNN adalah satu set interkoneksi modul yang didefinikasikan dengan 7-

tuple :

N= ( l , k , m ,r , π , I , D )

Dimana :

l = jumlah input

k = jumlah kelas

Page 23: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

m = jumlah modul dalam input layer

r = tipe perwakilan lanjutan (r ϵ {small , large } )

π = fungsi permutasi

I = input layer modul

D = decision modul

Contoh :

Sebuah jaringan modular dengan 210 input, 4 kelas, 15 modul input (masing-

masing memiliki 14 input, 1 hidden layer dengan 6 neuron dan 2 output), sebuah

perwakilan lanjutan kecil, sebuah fungsi permutasi p, dan sebuah jaringan

decision (dengan 30 input, 1 hidden layer dengan 10 neuron dan 4 neuron output)

dapat digambarkan sebagai berikut :

N= (210 , 4 , 15 , small , p ,(14 ,2 ,[6]) ,(30 , 4 , [10]))

Training Sistem

Training berlangsung dalm 2 tahap menggunakan algoritma Backpropagation.

Dalam fase yang pertama, semua sub jaringan dalam input layer akan ditraining.

Training set individual untuk setiap sub jaringan dipilih dari traning set original

dan terdiri dari komponen-komponen vector original dimana dihubungkan ke

jaringan tertentu (sebagai sebuat vector input) bersama dengan perwakilan kelas

output yang diinginkan dalam biner atau 1-out-of-k coding.

Page 24: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Dalam fase kedua decision jaringan akan ditraining. Untuk menghitung training

set, setiap pola input original diterapkan ke layer input; menghasilkan vector

bersama-sama dengan kelas output yang diinginkan (perwakilan dalam 1-out-of-k

coding) membentuk pasangan training untuk decision modul.

Untuk mempermudah deskripsi/penjelasan pada training, sebuah perwakilan

lanjutan kecil akan digunakan. Untuk selanjutkan diasumsikan bahwa fungsi

permutasi adalah fungsi identitas ( x )=x .

Training set (TS) original adalah : (x1j , x2

j , …. , x lj , d j), dan dimana x i

j∈R adalah i

th komponen dari j th vector input, d j adalah nomor kelas, j = 1,….,t, dimana t

adalah jumlah contoh data training.

Modul MLPi dihubungkan pada :

x i ∙n+ 1 , x i∙ n+2 , …, x ( i+1) ∙ n

Training set TSi untuk modul MLPi adalah :

( xi ∙ n+1j , x i ∙n+2

j , x i ∙n+3j , …, x (i+1 ) ∙n

j ;dBINj )

Untuk semua j=1 ,…, t , dimana d BINj adalah representasi kelas output dalam kode

biner.

The mapping performed by the input layer is denoted by :

Φ : Rn∗m→ Rm∗⌈ log2 k ⌉

Algoritma Training :

Tahap 1 Training Layer Input :1. Pilih training set TSi dari training set original TS, untuk semua

i=0 …m−1.2. Training semua modul MLPi pada TSi menggunakan algoritma

BP. Tahap 2 Training Decision Jaringan :

1. Hitung respon r pada layer pertama untuk setiap vector input j.

r j=Φ ( (x1j , x2

j , …, x lj ) )

2. Bangun training set untuk jaringan decision

TSd= {(r j ;dBITj )∨ j=1 ,…,t }

Page 25: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Figure 2.1

Training set untuk jaringan decision :

(Φ ( (x1j , x2

j , …, x lj) );d BIT

j ) dan j=1 ,…, t . Dimana d BITj adalah representasi kelas

output dalam 1-our-of-k kode.

The mapping of the decision network is denoted by :

Ψ : Rm∗⌈ log2 k ⌉→ Rk

Algoritma training disimpulkan dalam Figure 2.1

Training pada setiap modul pada layer input adalah bebas untuk semua modul

yang lain sehingga dapat diselesaikan parallel. Training akan berhenti baik ketika

setiap modul telah mencapai eror yang cukup kecil atau menetapkan nilai nilai

maximum epoh. Ini akan menjaga setiap modul bebas.

Alternative training dapat berhenti jika error dari keseluruhan modul sudah cukup

kecil atau sudah mencapai nilai maximum epoh. Diasumsikan bahwa training

berlangsung simultan langkah demi langkah dalam semua modul.

Perhitungan Output

Perhitungan output juga berlangsung dalam 2 tahap. Yang pertama sub-sub vector input

untuk setiap modul dipilih dari vektor input yang digunakan berdasarkan fungsi

permutasi dan intermediate output yang dihitung oleh semua modul. Dalam tahap yang

kedua semua output dari layer input digunakan sebagai input pada jaringan decision;

kemudian hasil akhir dihitung.

Algoritma Training :

Tahap 1 Training Layer Input :1. Pilih training set TSi dari training set original TS, untuk semua

i=0 …m−1.2. Training semua modul MLPi pada TSi menggunakan algoritma

BP. Tahap 2 Training Decision Jaringan :

1. Hitung respon r pada layer pertama untuk setiap vector input j.

r j=Φ ( (x1j , x2

j , …, x lj ) )

2. Bangun training set untuk jaringan decision

TSd= {(r j ;dBITj )∨ j=1 ,…,t }

Page 26: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Diagram dari keseluruhan jaringan dapat ditunjukkan dengan :

Φ∘Ψ : R l→ Rk

Respon r untuk sebuah input tes (a1 , a2, …, al ) ditentukan oleh rumus berikut :

r=Ψ (Φ ( a1, a2 , …, al ))

Output dimensi k pada decision modul digunakan untuk menentukan nomor kelas dari

input yang diberikan. Dalam percobaan neuron output dengan respon yang tinggi dipilih

sebagai perhitungan kelas. Perbedaan antara neuron ini dan neuron level dibawahnya

boleh dapat diambil sebagai ukuran akurasi.

Analisis dari Model Baru

Dalam bagian ini, beberapa aspek dari model dipertimbangkan. Analisis ini menampilkan

beberapa latar belakang dari kelakuan jaringan, dan juga mengungkapkan pertanyaan :

mengapa jaringan bekerja?, fokus pada aspek kecepatan, pembelajaran dan

generalisasi/penyamarataan. Teori limitasi pada model juga dipertimbang.

Struktur jaringan yang diusulkan didasarkan pada modul dengan setiap input terkoneksi

pada sebuah single modul. Fitur ini menghasilkan sebuah prosedur training yang lebih

cepat dan memajukan performa generalisasi, tetapi juga memperkenalkan batas-batas

tertentu. Jumlah koneksi dalam jaringan modular adalah signifikan lebih kecil

dibandingkan dengan sebuah arsitektur monolithic. Perbandingan yang konkrit

ditunjukkan dalam bab 7.

Kecepatan jaringan

Page 27: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Untuk analisis, dibawah ini dibuat sebuah asumsi :

Modul yang digunakan dalam MNN hanya mempunyai satu hidden layer dengan

4 neuron

Representasi lanjutan panjang digunakan pada system MNN ( untuk

representasi yang pendek jumlah bobot bahkan bisa lebih kecil )

Fungsi v mengambil sebuah modul dan mengembalikan jumlah bobot-bobot

koneksi. (contoh : v ( M )=i, dimana M=( a ,b , [h ] ) dan i=a ∙ h± h ∙b untuk

sebuah modul dengan satu hiden layer dan dimana M=(a , b , [h1 ,h2 ]) dan

i=a ∙ h1 ± h1 ∙ h2 ±h ∙b untuk sebuah jaringan dengan dua hidden layer)

Fungsi τ mewakili waktu yang dibutuhkan dalam traning sebuah modul. Asumsi

analisis bahwa τ hanya bergantung pada jumlah bobot dan bertambah secara

monoton i> j⟹ τ ( i )>τ ( j ). ini bearti waktu traning lebih lama jika ada bobot

lebih dalam jaringan. Dalam sebuah system yang nyata, itu biasanya bergantung

pada parameter lain dengan baik.

Training arsitektur jaringan yang baru lebih cepat dari training sebuah jaringan

monolithic modular pada masalah yang sama untuk 3 alasan :

1. Jumlah koneksi dalam jaringan modular dan karenanya jumlah bobot lebih kecil

dari pada sebuah MLP monolithic. Bobot yang lebih sedikit memimpin pada

operasi yang sedikit selama training backpropagation. Hasilnya secara langsung

dalam sebuah prosedur pembelajaran yang cepat.

Mempertimbangkan sebuah jaringan modular dengan 10 modul input, masing-

masing dengan n input, hm=4 neuron pada hidden layer, dan k output.

Decision modul mempunyai (10 ∙ k ) input, hm=4 neruon pada hidden layer, dan

k output. Ini ditunjukkan dengan : M mod=(l , k ,10 , (n , k , [hm ]) , (10 , k , [hm ] )), dimana l=10 ∙ n.

Page 28: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Sebuah jaringan monolithic dengan jumlah input yang sama dan output, dan

dengan 2 hidden layer masing-masing dengan hs neuron dapat ditunjukan

dengan : BP=(l , k , [hs , hs ])Untuk jumlah neuron harus sama dalam dua jaringan :

10 ∙ ( hm+1 )+hm+k=2∗hs+k

⟹hs=11 hm+10

2=27

Jumlah bobot dalam setiap jaringan adalah :

v ( BP )=27 ∙+27 ∙ k+729

v ( M mod )=4 ∙ l+84 ∙ k

Jika input cukup besar, maka :

l>32+2.5 ∙ k

Kemudian

v ( BP )>v ( M mod )

Oleh karena itu

τ ( v ( BP ) )>τ (v ( M mod ))

Page 29: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Sejak τ bertambah secara monoton.

2. Modul dalam input layer adalah saling bebas, jadi training dapat dilakukan

secara parallel. Waktu training pada implementasi semua parallel adalah waktu

maksimum yang dibutuhkan untuk satu kali training dari modul input ditambah

waktu untuk training decision modul. Oleh karena itu jumlah bobot yang dapat

dianggap sebagai factor waktu dalam sebuah training parallel adalah hanya

jumlah bobot dalam sebuah modul input ditambah jumlah bobot dalam decision

modul. Asumsi M i adalah sebuah modul dalam layer input dan M d adalah

decision modul, waktu training T dapat dihitung sebagai berikut :

T=τ (v ( M i ))+τ (v ( M d ))

Asumsi dari contoh (M moddanBP) diatas meningkat secara signifikan. Jumlah

input per modul diasumsikan lebih besar dari delapan(n>8 ). Jumlah bobot

untuk dipertimbangkan pada training dalam setiap jaringan adalah :

v ( BP )=27 ∙ l+27 ∙ k+729

v ( M mod )=2∙ ( 4 ∙l+4 ∙ k )

Rasio antara jumlah bobot untuk training (k=2 , n>8 , l=10 ∙ n ) :

Page 30: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

v ( BP )v ( M mod )

=270∙ n+7838∙ n+16

> 270 ∙ n+78310 ∙ n

> 270 ∙ n10 ∙ n

=27

Jumlah bobot sebagai pertimbangan untuk waktu yang dibutuh pada training

jaringan adalah kurang lebih 27 kali lebih kecil dalam sebuah monolithic MLP.

3. Membagi vector training ke dalam bagian-bagian sering membantu untuk focus

pada atribut yang umum. Pertimbangkan contoh berikut :

Original Set Set MLP1 Set MLP1

x1 x2 x3 x4 x5 x6 y x1 x2 x3 y x4 x5 x6 y

0 0 0 0 0 1 0 0 0 0 0 0 0 1 0

0 0 0 0 1 0 0 0 0 0 0 0 1 0 0

0 0 0 1 0 0 0 0 0 0 0 1 0 0 0

1 1 0 1 0 1 1 1 1 0 1 1 0 1 1

1 0 1 1 0 1 1 1 0 1 1 1 0 1 1

0 1 1 1 0 1 1 0 1 1 1 1 0 1 1

Kelas ‘0’ ditentukan oleh x1, x2, dan x3; dimana akan dipelajari dengan sangat

cepat oleh MLP1, yang mana melihat tuple ini ‘0 0 0 : 0’ tiga kali selama satu

putaran training.

Begitu juga kelas ‘1’ ditentukan oleh x4, x5, dan x6 yang mana akan dipelajari

dengan cepat oleh MLP2.

Tidak mungkin bahwa data set pada dunia nyata mempunyai struktur yang sama

sepeti pada contoh. Namun ini dapat menghasilkan perbaikan yang signifikan,

terutama dengan input dimensi yang besar.

Page 31: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Masalah Pembelajaran

Membagi training set dalam sub bagian dapat juga membawa masalah. Jumlah vector

input setara dengan nilai output yang berbeda kemungkinan dapat meningkat, secara

khusus pada modul dengan jumlah sebuah variable input yang kecil.

Mempertimbangkan kasus yang sangat buruk : masalah keseimbangan 4-Bit :

Original Set Set MLP1 Set MLP1

x1 x2 x3 x4 y x1 x2 y x3 x4 y

0 0 0 0 0 0 0 0 0 0 0

0 0 0 1 1 0 0 1 0 1 1

0 0 1 0 1 0 0 1 1 0 1

0 0 1 1 0 0 0 0 1 1 0

0 1 0 0 1 0 1 1 0 0 1

0 1 0 1 0 0 1 0 0 1 0

0 1 1 0 0 0 1 0 1 0 0

0 1 1 1 1 0 1 1 1 1 1

1 0 0 0 1 1 0 1 0 0 1

1 0 0 1 0 1 0 0 0 1 0

1 0 1 0 0 1 0 0 1 0 0

1 0 1 1 1 1 0 1 1 1 1

1 1 0 0 0 1 1 0 0 0 0

1 1 0 1 1 1 1 1 0 1 1

1 1 1 0 1 1 1 1 1 0 1

1 1 1 1 0 1 1 0 1 1 0

Page 32: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Asumsi 2 modul input; MLP1 dihubungkan pada x1 dan x2, MLP2 dihubungkan pada x3

dan x4. Hasil training set untuk setiap 2 modul input mempunyai 162-Bit vector, masing-

masing dari empat vektor yang berbeda muncul dua kali dengan output yang diinginkan

‘1’, dan dua kali dengan output yang diinginkan ‘0’. Hal ini tidak mungkin bagi modul

individu untuk membedakan kasus ini, jadi setelah training respon modul akan menjadi

‘0.5’ untuk pola input apa saja. Semua informasi telah hilang dalam layer input, jadi tidak

ada keputusan yang mungkin.

Untuk mendiskusikan masalah ini lebih jauh, dibutuhkan definisi berikut : P ( y=a )

adalah kemungkinan dari output variable y yang memiliki nilai a. Dan P ( y=a∨x=b )

adalah kemungkinan yang bergantung pada y=1jika x=b.

Definisi : set data pada variable-variabel statistic netral

Menimbang fungsi f (x1 , …, xn , …, xm)= y. sebuah subset input {x1 , …, xn } dengan

n<m disebut statistic netral jika pengetahuan dari nilai variable ini tidak meningkatkan

pengetahuan dari hasil y .

Secara formal : set variable input {x1 , …, xn } adalah statistic netral jika :

P ( y=a )=P ( y=a∨x1=b1∧…∧ xn=bn)

Jika keseluruhan set dari variable input dan semua kemungkinan subset untuk semua

modul adalah statistic netral, jaringan tidak dapat mempelajari tugas. Jika hanya

beberapa dari modul yang memenuhi sebuah statistic netral set pada input variable,

jaringan dapat menunjukkan hasil yang memuaskan.

Dalam [ston95], itu menunjukkan bahwa jaringan monolithic multi layer feedforward

dapat mempelajari masalah statistic netral, tetapi jaringan tidak dapat genaralisasi

masalah tersebut. Keadaan ini terdengar sangat tidak sama pada kehidupan nyata dan

harapannya dapat diteliti selama percobaan ini.

Page 33: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Secara khusus dalam tugas-tugas dengan ruang input yang besar, seperti pengenalan

gambar, masalah ini dapat diabaikan. Dalam tugas-tugas dengan sebuah atribut dengan

jumlah input yang kecil, satu cara untuk mengurangi kemungkinan mendapatkan statistic

netral input set, adalah mengkodekan kembali data dalam code yang jarang.

Generalisasi

Kemampuan untuk generalisasi adalah sifat utama dari ANN. Hal ini adalah bagaimana

ANN dapat menangani input yang belum dipelajari tetapi mirip dengan input yang

terlihat selama fase training. Usulan arsitektur menggabungkan 2 metode generalisasi.

Metode yang pertama adalah membangun MLP. Setiap jaringan mempunyai kemampuan

untuk menggeneralisasi data pada ruang input. Tipe generalisasi ini biasanya untuk

koneksi sistem-sistem.

Page 34: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Metode generalisasi yang kedua adalah berhubungan dengan arsitektur dari jaringan

yang diusulkan. Ini adalah satu cara generalisasi sesuai dengan kemiripan pola-pola

input. Metode ini ditemukan dalam logical neural network [patt96, p127ff].

Untuk menjelaskan tingka laku secara lebih konkrit mempertimbangkan contoh

sederhana berikut dari pengenalan sistem.

Diasumsi sebuah input retina 3x3 dengan arsitektur ditunjukkan dalam diagram 5.4.

masing-masing sembilan input membaca sebuah nilai yang terus menerus antara 0 dan

1, sesuai dengan rekaman level keabuan (hitam =1; putih =0).

Jaringan perlu dilatih untuk mengenali huruf yang mudah ‘H’ dan ‘L’ menggunakan

training set yang ditunjukkan dalam diagram 5.5(a). output yang diinginkan pada

jaringan input adalah ‘0’ untuk huruf ‘H’ dan ‘1’ untuk huruf ‘L’.

Subset training untuk jaringan MLP0, MLP1, dan MLP2 adalah :

MLP0 MLP1 MLP2

(1,0,1;0) (1,1,1;0) (1,0,1;0)

(1,0,0;1) (1,0,0;1) (1,1,1;1)

Page 35: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Setelah training di layer pertama pada jaringan, diasumsi bahwa perhitungan output

adalah ekuivalen dengan output yang diinginkan. Hasil training set untuk decision

network adalah :

(Φ (1,0,1,1,1,1,1,0,1 ) ;1,0 )=(0,0,0 ;1,0 )

(Φ (1,0,0,1,0,0,1,1,1 ) ;0,1 )=(1,1,1;0,1 )

Setelah training pada decision network, diasumsikan respon system pada training set

sebagai berikut :

r H=Ψ (Φ (1,0,1,1,1,1,1,0,1 ) )=Ψ (0,0,0 )=(1,0 )

r L=Ψ ( Φ (1,0,0,1,0,0,1,1,1 ) )=Ψ (1,1,1 )= (0,1 )

Untuk menunjukkan perbedaan efek pada generalisasi tiga karakter yang terdistorsi,

ditunjukkan dalam gambar 5.5(b) yang digunakan sebagai set tes.

Karakter pertama tes generalisasi dalam modul input, tes kedua generalisasi pada jumlah

sub pola yang benar, dan karakter yang ketiga adalah kombinasi keduanya. (diagram

dalam vector input adalah sesuai dengan level keabuan dalam pola ; output diambil dari

neural network khusus/tersendiri).

r1=Ψ (Φ (0.9,0 .2,0.1,0 .7,0 .2,0 .1,0 .5,0.5,0 .5 ) )

¿Ψ (0.95,0 .86,0 .70 )=(0.04,0 .96 )⟹ ' L'

Page 36: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

r2=Ψ (Φ (1.0,0.0,1 .0,1 .0,0.0,1 .0,1 .0,0.0,1 .0 ) )

¿Ψ (0,0.49,0 )=(0.91,0 .09 )⟹ ' H '

r3=Ψ ( Φ (0.9,0 .2,0.2,0 .9,0 .5,0 .2,0 .9,0 .2,0.9 ) )

¿Ψ (0.92,0 .65,0 .09 )=(0.15,0 .89 )⟹ ' L'

2.3. Bacterial Foraging Optimazation Algorithm (BFOA)

Pada tahun 2002 Passino memperkenalkan algoritma baru untuk pembagian kontrol dan

optimasi yaitu BFOA. BFAO merupakan terobosan terbaru metode komputasi yang

meniru pola tingkah laku mencari makan bakteri E. coli yang ada dalam usus manusia.

Secara alami biasanya binatang dengan strategi mencari makan yang sedikit akan

berkurang dengan sendirinya. Sebaliknya seleksi alam akan mendukung perkembangan

dan pertambahan jumlah binatang yang mempunyai banyak strategi dalam mencari

makan. Namun mereka juga diharapkan untuk berhasil dalam reproduksi. Tetapi setelah

beberapa generasi kemudian, maka binatang yang memilik stategi mencari makan yang

kurang akan tereliminasi dengan sendirinya atau jika tidak demikian maka mereka akan

berubah menjadi lebih terampil. Kegiatan pencarian makanan ini kemudian

meenginspirasi para peneliti untuk menggunakan hal tersebut sebagai proses optimasi.

Page 37: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Bakteri E. coli yang hidup dalam usus kita juga menggunakan strategi ini. Sistem kontrol

pada bakteri E. coli ini yang menentukan bagaimana pencarian makanan akan

berlangsung.

1. Chemotaxis: Normalnya bakteri akan bergerak menuju sumber nutrisi terdekat

dengannya. Proses ini merupakan operasi utama yang menunjukan pergerakan

dari bakteri yang berhasil berenang dan berguling melalui flagella. Bakteri ini

bergerak kearah optimal error (sumber nutrisi). Proses ini mempunyai 2 tahap

sebagai berikut:

Tumbling: bakteri biasanya mengubah posisi mereka untuk

mendapatkan makanan terbaik di tempat yang benar-benar kaya akan

minimal error dari ANN. Misalkan (j, k, l) mewakili bakteri i-th di

chemotactic j-th, reproduksi k-th dan eliminasi dan langkah-langkah

penyebaran l-th, C (i) merupakan satuan jarak yang acak. Langkah-

langkah chemotactic mewakili pergerakan bakteri menuju lokasi

berikutnya, rumus 5 menunjukannya sebagai berikut:

RumusDimana

:Garis acak pada [-1, 1]

: satuan perjalanan dalam arah yang acak C: satuan jarak

berlari

: akan diwakili oleh P (I, j, k, ell)

: akan diwakili oleh P (I, j+l, k, ell)

Yang mewakili lokasi bakteri berikutnya.

Swimming: bakteri terus bergerak dengan arah tertentu jika errornya

sedikit (kaya akan nutrisi). Sebenarnya jika lokasi berikut mengandung

lebih banyak nutrisi daripada lokasi sebelumnya maka yang lainnya akan

berenang dengan arah yang sama dengannya dan bakteri ini akan

Page 38: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

mengulang proses ini sampai dia menyelesaikan langkah chemotactic-

nya. Namun, jika lokasi berikutnya tidak mengandung lebih banyak

nutrisi dari lokasi sebelumnya maka bakteri-bakteri ini akan mengubah

arahnya untuk menghindari lokasi tersebut dengan cara berguling.

2. Swarming: Ketika kelompok bakteri E. coli berada di lokasi setengah padat

dengan tujuan agar mereka memiliki sensor di tempat-tempat berbahaya, maka

mereka akan berubah dari tengah menuju arah luar dengan gerakan berputar

secara berkelompok dengan mengikuti besarnya nutrisi yang dihasilkan oleh

kelompok bakteri yang mengkonsumsi nutrisi. Kemudian bakteri-bakteri ini akan

meninggalkan attractant aspirate jika adanya pemakaian succinate yang tinggi

debagai nutrisi dimana hal ini akan membimbing bakteri-bakteri ini untuk

melakukan pemusatan dalam kelompok dan karenanya akan bergerak sebagai

suatu kesatuan yang solit dari begitu banyaknya bakteri. Jarak urutannya ini

bergantung dari pergerakan keluar dengan gerakan berputar dan juga pelepasan

attractant lokal dimana kedua hal ini berfungsi sebagai daya tarik sinyal antara

bakteri-bakteri ini agar berkumpul dan membentuk kawanan. Rumus 6

merupakan fungsi daya tarik sel ke sel yang menunjukan sinyal menuju lokasi

yang kaya akan nutrisi ataupun menuju lokasi yang memiliki sedikit nutrisi.

RumusDimana

: kedalaman attractant untuk mengatur besarnya attractant yang dikeluarkan

oleh sebuah sel

: lebar attractant untuk mengatur bagaimana sinyal kohesi kimia disebarkan

(semakin kecil akan semakin tersebar)

: tinggi repellant untuk mengatur repellant (sebuah kecenderungan untuk

menghindari sel yang berdekatan)

: lebar repellant untuk membuat area kecil yang penyebaran sinyal kimia selnya

relatif

: jumlah bakteri

Page 39: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

: dimensi pencarian jarak atau ANN

: anggota bakteri jumlah i

:semua anggota bakteri

Reproduction: Nilai fitness dari bakteri akan disortir dalam susunan

array yang diatur dari nilai terkecil ke nilai terbesar. Setengah bagian

dari bakteri mempunyai nilai fitness yang lebih tinggi dimana bakteri

yang mati dan yang tersisa (merupakan setengah populasi) dibiarkan

untuk terbagi kedalam dua bagian yang sama dengan nilai yang sama.

Hal ini menyebabkan populasi dari bakteri tetap konstan. Kesehatannya

dihitung dengan rumus 7 sebagai berikut:

RumusDimana N C adalah langkah-langkah chemotactic dan j adalah nilai error

Elimination dan Dispersal: beberapa bakteri dalam dunia nyata mempunyai

probabilitas dan dispersed kelokasi baru. Proses eliminasi dimulai dengan

menjeneralkan vector acak pada ukuran 1xS. Kemudian elemen-elemen

vector akan tersortir dalam urutan naik. Setelah itu, index akan ditempatkan

untuk mencocokkan bakteri yang telah disortir berdasarkan kesehatannya.

Kemudian dipilihlah posisi bakteri yang cocok dengan Index yang didapat.

Mereka ditukar dalam domain optimasi dengan penjeneralan posisi secara

acak termasuk [-1, 1]. Posisi-posisi ini diberlakukan sebagai posisi terbaik

yang berlaku. Akhirnya, dengan menyelesaikan perulangan, nilai terbaik

dalam setiap iterasi dapat ditarik dan nilai terbaik diantara mereka dapat

dinyatakan sebagai solusi optimal.

III. Data Preparation

Masalah yang ada direpresentasikan oleh dataset karena data universal

telah diaplikasikan untuk pengklasifikasian, pengelompokan, dan lainnya.

Setiap dataset berisi sejumlah atribut yang mewakili pola input yang sama

dengan node input ANN. Kemudian, setiap dataset berisi sejumlah instansi

Page 40: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

atau pola yang berbeda berdasarkan pada jenis datasetnya. Dalam

penelitian ini, lima klasifikasi dataset dipilih dengan tujuan pengklasifikasian

bobot ANN dengan menggunakan dua algoritma.

IV. metodologi BFOANN

Gambar 2 merupakan kerangka dari penelitian ini yang diimplementasikan

untuk integrasi BFOA dalam ANN. Penelitian ini menggunakan lima dataset

XOR, Ballon, Cancer, Heart, dan ionosphere untuk validasi metode yang

diusulkan.

A. Inisialisasi BFOANN

Algoritama BFOANN bergantung pada sebuah penyatuan atau pangaturan

yang multidimensional. Oleh karena itu model dari BFOA yang berdasarkan

ANN yang menggunakan lima dimensi. Dimensi pertama berdasarkan pada

dimensi jaringan neural yang dihitung dengan menggunakan rumus 8:

Rumus

Dimensi kedua dari penyatuan multidimensional diatur berdasarkan jumlah

bakteri dan jumlah ini harus berupa jumlah genap sehingga dapat dibagi

dengan 2. Dimensi ketiga diatur berdasarkan jumlah langkah chemotactic.

Dimensi keempat diatur berdasarkan jumlah tahapan reproduksi. Dimensi

kelima diatur berdasarkan jumlah kejadian penghilangan dan

pembubarannya. Untuk penginisialisasian dari populasi bakteri, seluruh

anggota bakteri akan diinisialisasikan dengan menggunakan nomor acak

antara 0 sampa 1 untuk setiap anggotanya dan penginisialisasian ini hanya

diperuntukan bagi dimensi pertama dan kedua, kemudian dimensi lainnya

akan tercipta secara otomatis dengan menggunakan model BFOANN.

Tabel 1

Page 41: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Table 1 menunjukan arsitektur ANN baik untuk PSONN dan BFOANN yang

menggunakan lima lapisan dan arsiktektur yang sama untuk pengaturan data

XOR, balon, kanker, jantung dan ionosfir.

B. Proses pembelajaran BFOANN: proses dari ANN ditunjukan oleh perolehan

satu bakteri. Setiap anggota kelompok bakteri mempunyai berat dan

dimensi yang sama. Proses pelatihan ditunjukan oleh satu set pola jalur api

dari pengaturan data beratnya (satu bakteri) untuk mencari kesalahan dari

bakteri ini. Kemudian seluruh kesalahan bakteri ini dikumpulkan dan

dibandingkan untuk dicari bakteri mana yang memiliki berat optimal. Bakteri

ini merupakan bakteri terbaik dan beratnya juga merupakan berat terbaik

untuk proses pengulangan. sebuah proses pengulangan akan berhenti pada

batas kesalahan tertantu, dan bakteri terbaik akan memberikan kesalahan

optimal dimana kesalahannya sama atau kurang dari batas kesalahan yang

ada. Namun, pada pengulangan terakhir, bakteri terbaik akan memberikan

kesalahan optimal yang kurang dari batas kesalahannya. Serangkaian tes juga

digunakan untuk pengujian bakteri terbaik yang telah menyelesaikan jalur

BFOANN dalam mengevaluasi perfroma dari berat oprtimal yang

diperkenalkan oleh jalur ANN. Gambar 3 meunjukan contoh proses BFOA

berdasarkan ANN dan bagaimana untuk mengoptimalkan berat yang ada.

Table 2 dan table 3 menunjukan parameter inisial dari PSONN dan BFONN

yang digunakan dalam tugas ini untuk menunjukan dampak dari BFONN

untuk pengoptilmasian jaringan neural.

Page 42: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

BAB III

ANALISIS DAN PERANCANGAN SISTEM

Page 43: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

DAFTAR PUSTAKA

Agustini , K., 2006. IDENTIFIKASI PEMBICARA DENGAN JARINGAN SYARAF TIRUAN DAN

TRANSFORMASI WAVELET DISKRET SEBAGAI PRAPROSES. Seminar Nasional Sistem dan

Informatika, 17 November.pp. 67-72.

Al-Sawalmeh, W., Daqrouq, K., Daoud, O. & Al-Qawasmi, A.-R., 2010. Speaker

Identification System-based Mel Frequency and Wavelet Transform using Neural

Network Classifier. European Journal of Scientific Research, 41(1), pp. 515-525.

Ariyadi, R., Purnomo, M. H., Ramadijanti, N. & Dewantara, B. S., 2013. PENGENALAN

RASA LAPAR MELALUI SUARA TANGIS BAYI UMUR 0-9 BULAN DENGAN MENGGUNAKAN

NEURAL NETWORK.

Hilal, T. A., Hilal, H. A., Shalabi, R. E. & Daqrouq, K., 2011. Speaker Verification System

Using Discrete Wavelet Transform And Formants Extraction Based On The Correlation

Coefficient. International MultiConference of Engineers and Computer Scientists (IMECS),

16-18 March.Volume II.

Misbahuddin, 2011. PELATIHAN JARINGAN SYARAF TIRUAN BERBASIS IMPERIALIST

COMPETITIVE ALGORITHM. Majalah Ilmiah Al-Jibra, April.Volume 12.

Pawar, M. D. & Badave, S. M., 2011. Speaker Identification System Using Wavelet

Transformation and Neural Network. International Journal of Computer Applications in

Engineering Sciences, July, Volume I, pp. 228-232.

Putra, D., 2010. Pengolahan Citra Digital. Yogyakarta(DKI Yogyakarta): ANDI.

Rizal, A. & Suryani, V., 2006. Pengenalan Suara Jantung Menggunakan Dekomposisi Paket

Wavelet dan Jaringan Syaraf Tiruan ART2 (Adaptive Resonance Theory 2). International

Seminar on Electrical Power, Electronics Communication, Control, and Informatics, 16-17

Mei.

Page 44: USULAN PENELITIAN S1 - Fadly Rano Lado Revisi 2 (Dari Pak YOs)

Schmidt, A. & Bandar, Z., 1997. A Modular Neural Network Architecture with Additional

Generalization Abilities for High Dimensional Input Vectors. Norwich/England:

Manchester Metropolitan University.

Silvan, V. & Muttaqien, F. H., 2011. Identifikasi Pembicara Menggunakan Algoritme VFI5

dengan MFCC sebagai Pengekstraksi Ciri. INKOM, Desember, Volume V, pp. 35-45.

Yudho DN, T., Hidayatno, A. & Isnanto, R., 2013. APLIKASI PENCIRIAN DENGAN

TRANSFORMASI WAVELET UNTUK PENGENALAN PENGUCAP TEKS TAK BEBAS

MENGGUNAKAN JARINGAN SARAF TIRUAN.