Post on 03-Oct-2021
PENGOPTIMALAN AKURASI PENGENALAN POLA
BACKPROPAGATION PADA CITRA HURUF
TERDEGRADASI MEMANFAATKAN
RESTORASI CITRA MRF
TESIS
DENY SAPUTRA GINTING
157038006
PROGRAM STUDI S2 TEKNIK INFORMATIKA
FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI
UNIVERSITAS SUMATERA UTARA
MEDAN
2018
UNIVERSITAS SUMATERA UTARA
PENGOPTIMALAN AKURASI PENGENALAN POLA
BACKPROPAGATION PADA CITRA HURUF
TERDEGRADASI MEMANFAATKAN
RESTORASI CITRA MRF
TESIS
Diajukan untuk melengkapi dan memenuhi syarat memperoleh ijazah
Magister Teknik Informatika
DENY SAPUTRA GINTING
157038006
PROGRAM STUDI S2 TEKNIK INFORMATIKA
FAKULTAS ILMU KOMPUTER DAN TEKNOLOGI INFORMASI
UNIVERSITAS SUMATERA UTARA
MEDAN
2018
UNIVERSITAS SUMATERA UTARA
UNIVERSITAS SUMATERA UTARA
iii
PERNYATAAN
PENGOPTIMALAN AKURASI PENGENALAN POLA BACKPROPAGATION
PADA CITRA HURUF TERDEGRADASI MEMANFAATKAN RESTORASI
CITRA MRF
Saya mengakui bahwa tesis ini adalah hasil karya sendiri, kecuali beberapa kutipan
dan ringkasan yang masing-masing telah disebutkan sumbernya.
Medan, 13 Februari 2018
Deny Saputra Ginting
NIM. 157038006
UNIVERSITAS SUMATERA UTARA
iv
PERNYATAAN PERSETUJUAN PUBLIKASI
KARYA ILMIAH UNTUK KEPENTINGAN
AKADEMIS
Sebagai sivitas Akademika Universitas Sumatera Utara, saya yang bertanda tangan di
bawah ini:
Nama : Deny Saputra Ginting
NIM : 157038006
Program Studi : Pascasarjana (S-2) Teknik Informatika
Jenis Karya Ilmiah : Tesis
Demi pengembangan ilmu pengetahuan, menyetujui untuk memberikan kepada
Universitas Sumatera Utara Hak Bebas Royalti Non-Ekslusif (Non-Ekclusive Royalti
Free Right) atas tesis saya yang berjudul :
PENGOPTIMALAN AKURASI PENGENALAN POLA BACKPROPAGATION
PADA CITRA HURUF TERDEGRADASI MEMANFAATKAN RESTORASI
CITRA MRF
Beserta perangkat yang ada (jika diperlukan). Dengan Hak Bebas Royalti Non-
Eksklusif ini, Universitas Sumatera Utara berhak menyimpan, mengalih media,
menformat, mengelola dalam bentuk database, merawat dan mempublikasikan tesis
saya tanpa meminta izin dari saya selama tetap mencantumkan nama saya sebagai
penulis dan sebagai pemegang dan/atau sebagai pemilik hak cipta.
Demikianlah pernyataan ini dibuat dengan sebenarnya.
Medan, 13 Februari 2018
Deny Saputra Ginting
NIM. 157038006
UNIVERSITAS SUMATERA UTARA
v
LEMBAR PANITIA PENGUJI TESIS
Telah di uji pada
Tanggal : 13 Februari 2018
PANITIA PENGUJI TESIS
Ketua : Prof. Dr. Muhammad Zarlis
Anggota : 1. Dr. Pahala Sirait, ST, M.Kom
2. Prof. Opim Salim Sitompul
3. Dr. Sawaluddin, M.IT
UNIVERSITAS SUMATERA UTARA
vi
RIWAYAT HIDUP
DATA PRIBADI
Nama Lengkap : Deny Saputra Ginting
Tempat dan Tanggal Lahir : Kabanjahe, 03 April 1988
Alamat Rumah : Jln. Mariam Ginting, Gg. Kelinci, Kabanjahe
Telepon/Faks/HP : 081224842131
Email : denysaputraginting@gmail.com
Instansi Tempat Bekerja :
Alamat Kantor :
DATA PENDIDIKAN
SD : SD Sint.Xaverius 1 Kabanjahe TAMAT : 2000
SMP : SMP Negeri 1 Kabanjahe TAMAT : 2003
SMA : SMA Negeri 1 Kabanjahe TAMAT : 2006
S1 : STMIK Mikroskil Medan TAMAT : 2013
S2 : Teknik Informatika Universitas Sumatera Utara TAMAT : 2018
UNIVERSITAS SUMATERA UTARA
vii
UCAPAN TERIMA KASIH
Puji syukur kehadirat Tuhan Yang Maha Esa yang telah memberikan kepada kita
nikmat dan anugrah yang luar biasa sehingga penulis dapat menyelesaikan tesis
yang berjudul “Pengoptimalan Akurasi Pengenalan Pola Backpropagation
Pada Citra Huruf Terdegradasi Memanfaatkan Restorasi Citra MRF”, Tesis
ini merupakan salah satu syarat untuk memperoleh gelar Magister Teknik
Informatika pada program studi S-2 Teknik Informatika Universitas Sumatera
Utara.
Pada kesempatan ini, penulis ingin mengucapkan terima kasih sepenuhnya
kepada kedua orang tua saya Bapak Alm.Saksi Ginting dan Ibu Endaulina Br
Bukit sebagai “Tangan Tuhan”, yang selalu menyertai dan memberikan dukungan
baik moril dan materil kepada penulis hingga selesainya proses pendidikan dari
program studi S-2 Teknik Informatika, Fakultas Ilmu Komputer dan Teknik
Informatika Universitas Sumatera Utara.
Penulis juga tidak lupa mengucapkan terima kasih banyak kepada semua
pihak yang telah membantu penulis dalam menyelesaikan tesis ini, antara lain:
1. Bapak Prof. Dr. Runtung Sitepu, S.H., M.Hum., selaku Rektor Universitas
Sumatera Utara.
2. Bapak Prof. Dr. Opim Salim Sitompul., selaku Dekan Fakultas Ilmu
Komputer dan Teknologi Informasi Universitas Sumatera Utara sekaligus juga
selaku Dosen Pembanding/Penguji 1 yang selama ini telah memberikan
banyak saran, serta pembelajaran yang berharga bagi penulis sebagai arahan
untuk menyelesaikan penulisan tesis ini.
3. Bapak Prof. Dr. Muhammad Zarlis., selaku Ketua Program Studi Pascasarjana
(S-2) Teknik Informatika Fakultas Ilmu Komputer dan Teknologi Informasi
Universitas Sumatera Utara sekaligus juga selaku Dosen Pembimbing 1 yang
selama ini telah memberikan banyak saran, serta pembelajaran yang berharga
bagi penulis sebagai arahan untuk menyelesaikan penulisan tesis ini.
UNIVERSITAS SUMATERA UTARA
viii
4. Bapak Dr. Pahala Sirait, ST, M.Kom., selaku Pembimbing 2 yang telah
memberikan banyak saran, serta pembelajaran yang berharga bagi penulis
sebagai arahan untuk menyelesaikan penulisan tesis ini.
5. Bapak Dr. Sawaluddin, M.IT., selaku Pembanding/Penguji 2 yang telah
memberikan banyak saran, serta pembelajaran yang berharga bagi penulis
sebagai arahan untuk menyelesaikan penulisan tesis ini.
6. Bapak/Ibu Dosen Program Studi Pascasarjana (S-2) Teknik Informatika
Fakultas Ilmu Komputer dan Teknologi Informasi Universitas Sumatera Utara
yang telah memberikan bekal ilmu yang sangat berharga bagi penulis selama
menjadi mahasiswa.
7. Seluruh Civitas Akademika, Staf, Pegawai, teman-teman, adik-adik, kakak-
kakak di Program Studi Pascasarjana (S-2) Teknik Informatika Fakultas Ilmu
Komputer dan Teknologi Informasi Universitas Sumatera Utara, yang telah
membantu penulis dalam menyelesaikan penelitian dan juga telah mewarnai
hari-hari indah penulis selama menjalani masa kuliah.
8. Sahabat-sahabat di MTI KOM B 2015 yang telah sama-sama berjuang semasa
kuliah.
Penulis tetap menyadari masih ada kekurangan dalam penulisan tesis ini.
Oleh sebab itu saran dan kritik sangat dinantikan dan diterima dengan sikap
terbuka. Dan pada akhirnya penulis berharap karya tulis ini dapat digunakan
sebagai referensi dan dimanfaatkan dengan baik. Semoga penulisan tesis ini dapat
bermanfaat kedepannya. Terima kasih.
Medan,
Penulis,
Deny Saputra Ginting
NIM. 157038006
UNIVERSITAS SUMATERA UTARA
ix
ABSTRAK
Umumnya, OFR (Optical Font Recognition) Backpropagation digunakan untuk
mengenali pola huruf dalam kondisi normal. Memiliki beberapa tahapan pre-
processing sebelum masuk ke proses pengenalan pola antara lain, noise filtering,
binerisasi, cropping, resize dan ekstraksi fitur. Di dalam penelitian ini, penulis
mengusulkan pengoptimalan OFR Backpropagation khususnya untuk mengenali pola
huruf dalam kondisi tidak normal/terdegradasi antara lain pola huruf yang
terpotong/hilang atau terkena noda. Penulis menambahkan proses restorasi Markov
Random Field (MRF) pada tahapan pre-processing untuk memperbaiki kualitas pola
huruf. Pola hasil restorasi pola huruf akan dilanjutkan ke algoritma Backpropagation
untuk selanjutnya dilakukan proses pengujian (testing). Dari penelitian ini penulis
melakukan pengujian terhadap 60 citra huruf terdegradasi. Hasil testing yang penulis
dapatkan sebelum direstorasi yaitu 18,33% dan setelah restorasi yaitu 78,33%.
Kata kunci: Backpropagation; Markov Random Field; degradasi; pre-processing
UNIVERSITAS SUMATERA UTARA
x
OCR OPTIMIZATION FOR DEGRADED FONT USING MRF
TO RESTORATION AND BACKPROPAGATION NEURAL
NETWORK
ABSTRACT
Ussualy, OFR (Optical Font Recognition) Backpropagation is used for recognize
Font’s patterns is in normal condition. And has several stages of pre-processing
involves noise filtering, binarization, cropping, resizing and feature extraction. In this
paper, we proposed OFR Backpropagation Optimization, espesially for font
recognition it’s in degraded conditions e.g cuts or blobs. We added restoration-based
Markov Random Field (MRF) model at pre-processing stage. It’s used to restore
font’s patterns. The patterns that have restored will used as test data into
Backpropagation algorithm. In this research, we have tested on 60 letter with diferrent
degradation. And the accuracy of testing process is 18,33% without restoration
process and 78,33% after restoration process.
Keywords: Backpropagation; Markov Random Field; degradation; pre-processing
UNIVERSITAS SUMATERA UTARA
xi
DAFTAR ISI
Hal.
HALAMAN JUDUL ......................................................................................... i
PENGESAHAN ................................................................................................ ii
PERNYATAAN ORISINALITAS ................................................................... iii
PERSETUJUAN PUBLIKASI ......................................................................... iv
PANITIA PENGUJI ......................................................................................... v
RIWAYAT HIDUP ........................................................................................... vi
UCAPAN TERIMA KASIH ............................................................................. vii
ABSTRAK ........................................................................................................ ix
ABSTRACT ...................................................................................................... x
DAFTAR ISI ..................................................................................................... xi
DAFTAR TABEL ............................................................................................. xiv
DAFTAR GAMBAR ......................................................................................... xv
BAB 1 : PENDAHULUAN
1.1. Latar Belakang Masalah ................................................................ 1
1.2. Rumusan Masalah ......................................................................... 3
1.3. Batasan Masalah ............................................................................ 3
1.4. Tujuan Penelitian ........................................................................... 3
1.5. Manfaat Penelitian ......................................................................... 4
BAB 2 : LANDASAN TEORI
2.1. Citra Digital ................................................................................... 5
2.1.1. Citra Warna ......................................................................... 5
2.1.2. Citra Grayscale ..................................................................... 6
2.1.3. Citra Biner ........................................................................... 6
2.2. Pengolahan Citra ........................................................................... 6
2.2.1. Noise Filtering ..................................................................... 6
2.2.2. Greyscaling ......................................................................... 7
2.2.3. Binerisasi ............................................................................. 8
2.2.4. Segmentasi (Cropping) ........................................................ 8
2.2.5. Restorasi .............................................................................. 8
UNIVERSITAS SUMATERA UTARA
xii
2.2.6. Resizing (interpolasi citra) .................................................... 9
2.2.7. Ekstraksi Fitur ...................................................................... 9
2.3. Pengenalan Pola ............................................................................ 10
2.4. Markov Random Field (MRF) ....................................................... 11
2.4.1. Pengertian Markov Random Field ......................................... 11
2.4.2. Markov Random Field untuk Restorasi .................................. 13
2.5. Jaringan Saraf Biologi ................................................................... 14
2.6. Jaringan Saraf Tiruan ..................................................................... 16
2.6.1. Arsitektur Jaringan Saraf Tiruan .......................................... 18
2.6.1.1. Jaringan Lapisan Tunggal Umpan Maju ................... 18
2.6.1.2. Jaringan Lapisan Jamak Umpan Maju ...................... 19
2.6.1.3. Jaringan Berulang ..................................................... 20
2.6.2. Proses Pembelajaran (Training dan Testing) ........................ 22
2.7. Backpropagation ........................................................................... 22
2.8. Penelitian Terkait .......................................................................... 29
2.9. Perbedaan Penelitian ..................................................................... 30
BAB 3 : METODOLOGI PENELITIAN
3.1. Tahapan Proses .............................................................................. 31
3.2. Proses Noise Filtering .................................................................... 31
3.3. Proses Binerisasi ............................................................................ 33
3.4. Proses Cropping ........................................................................... 34
3.5. Proses Restorasi Huruf .................................................................. 37
3.6. Proses Resizing .............................................................................. 38
3.7. Proses Ekstraksi Pola ..................................................................... 38
3.8. Proses Algoritma Backpropagation ............................................... 39
3.8.1. Fase Pelatihan ...................................................................... 39
3.8.2. Fase Pengujian ..................................................................... 45
BAB 4 : HASIL DAN PEMBAHASAN
4.1. Pendahuluan .................................................................................. 47
UNIVERSITAS SUMATERA UTARA
xiii
4.2. Pengujian Jaringan Saraf Tiruan Backpropagation Pada Citra
Huruf Dengan Pola Yang Mirip/Sama ........................................... 47
4.3. Pengujian Jaringan Saraf Tiruan Pada Citra Huruf
Backpropagation Terdegradasi ................................................... 55
4.3. Pembahasan ................................................................................... 64
BAB 5 : KESIMPULAN DAN SARAN
5.1. Kesimpulan ................................................................................... 65
5.2. Saran ............................................................................................. 65
DAFTAR PUSTAKA ........................................................................................ 66
LAMPIRAN PERHITUNGAN ........................................................................ A-1
UNIVERSITAS SUMATERA UTARA
xiv
DAFTAR TABEL
Hal.
Tabel 2.1: Penelitian terkait ................................................................................ 22
Tabel 4.1: Contoh 26 data training melalui proses pre-processing ....................... 48
Tabel 4.2: Hasil pengujian algoritma Backpropagation menggunakan pola huruf
yang mirip ........................................................................................ 53
Tabel 4.3: Hasil pengujian pada citra huruf terdegradasi ..................................... 59
UNIVERSITAS SUMATERA UTARA
xv
DAFTAR GAMBAR
Hal.
Gambar 2.1: Ilustrasi Mean Filtering menggunakan 4-neighborhood dan 8-
neighborhood ............................................................................... 7
Gambar 2.2: Implementasi metode zoning terhadap aksara Dewanagari .............. 10
Gambar 2.3: Contoh pola angka dengan tulisan tangan ....................................... 11
Gambar 2.4: Contoh grid MRF ............................................................................ 12
Gambar 2.5: Citra dokumen terdegradasi dan setelah direstorasi .......................... 13
Gambar 2.6: Pembagian patch menggunakan teknik MRF pada citra “Tip” ........ 13
Gambar 2.7: Hasil restorasi dari citra dokumen terdegradasi ............................... 14
Gambar 2.8: Neuron Biologis ............................................................................. 16
Gambar 2.9: Non-linier Neural Network ............................................................. 18
Gambar 2.10: Jaringan lapisan tunggal ................................................................ 19
Gambar 2.11: Jaringan lapisan jamak dengan 1 unit hidden layer ........................ 20
Gambar 2.12: Jaringan berulang tanpa perulangan self feedback dan tanpa
lapisan tersembunyi ...................................................................... 21
Gambar 2.13: Jaringan berulang memiliki perulangan self feedback dan memiliki
lapisan tersembunyi ...................................................................... 21
Gambar 2.14: Lapisan dan aliran sinyal dalam algoritma BPNN ......................... 23
Gambar 3.1: Rectangle filter 3 x 3 ...................................................................... 32
Gambar 3.2: Contoh hasil penerapan noise filtering neighborhood....................... 33
Gambar 3.3: Hasil croping secara vertikal ........................................................... 35
Gambar 3.4: Hasil croping secara horizontal ........................................................ 35
Gambar 3.5: Hasil satu karakter untuk setiap cropping ........................................ 35
Gambat 3.6: Citra hasil resizing .......................................................................... 38
Gambar 3.7: Proses ekstraksi pola ....................................................................... 39
Gambar 3.8: Ekstraksi pola huruf ‘a’ ................................................................... 45
Gambar 3.9: Ekstraksi pola huruf ‘q’ .................................................................. 45
Gambar 3.10: Pola karakter yang akan dikenali ................................................... 46
Gambar 4.1: Contoh patch citra huruf terdegradasi ............................................. 56
Gambar 4.2: Contoh patch citra learning ............................................................. 56
UNIVERSITAS SUMATERA UTARA
xvi
Gambar 4.3: Contoh tampilan hasil pengujian menggunakan citra huruf
terdegradasi tanpa proses restorasi MRF ......................................... 57
Gambar 4.4: Contoh tampilan hasil pengujian menggunakan citra huruf
terdegradasi setelah melalui proses restorasi MRF .......................... 58
UNIVERSITAS SUMATERA UTARA
BAB 1
PENDAHULUAN
1.1 Latar Belakang
Implementasi pengenalan pola menggunakan komputer sangatlah populer pada era
digital ini. Berbagai macam manfaat dari pengenalan pola antara lain untuk keamanan
data, pengambilan keputusan, dan lain-lain. Contoh implementasi pengenalan pola
yang sering dijumpai antara lain pengenalan pola sidik jari, pola tulisan tangan, pola
huruf, pola tanda tangan, pola iris mata, pola suara dan lain-lain.
Penelitian 1, Muharram et al. telah melakukan peneltian berjudul “Neural
Networks and Machine Learning for Pattern Recognition” pada tahun 2015 yang
membahas mengenai perbandingan akurasi dan efisiensi antara metode Neural
Network Backpropagation dengan Machine Learning Decision Tree dalam melakukan
pengenalan pola pada citra huruf.
Penelitian 2, Pratama et al. melakukan penelitian berjudul “Mobile OCR Using
Centroid to Boundary and Backpropagation Neural Network” pada tahun 2016 yang
membahas mengenai pembuatan aplikasi OCR memanfaatkan penggabungan metode
Centroid to Boundary yang digunakan pada proses ekstraksi fitur dan
Backpropagation untuk pengenalan pola.
Penelitian 3, Shareef et al. melakukan penelitian berjudul “OCR-ANN Back-
Propagation Based Classifier” pada tahun 2015, yang membahas mengenai
pembuatan aplikasi OCR dengan algoritma Backpropagation yang
mengkombinasikan beberapa teknik pengolahan citra pada tahapan pre-processing.
Penelitian 4, Afroge et al. melakukan penelitian berjudul “Optical Character
Recognition using BackPropagation Neural Network” pada tahun 2016, yang
membahas mengenai pengaplikasian OCR menggunakan algoritma Backpropagation
pada citra dengan background ber-noise.
UNIVERSITAS SUMATERA UTARA
2
Pada ke-empat penelitian di atas, digunakan sample citra yang berkualitas baik dalam
melakukan proses training dan testing. Hal ini dilakukan untuk memastikan proses
pengenalan pola huruf pada citra tersebut menghasilkan tingkat akurasi yang optimal.
Sebaliknya, pengenalan pola huruf akan menjadi tidak optimal jika citra huruf yang
digunakan citra yang terdegradasi.
Citra yang terdegradasi sering ditemukan pada citra dari dokumen yang sudah
diduplikasi (foto copy), hasil scan dari dokumen lama (manuskrip), dokumen yang
memiliki coretan, dan lain-lain. Untuk mengatasi masalah ini, maka harus dilakukan
perbaikan citra yang terdegradasi menjadi seperti citra original yang disebut dengan
restorasi citra. Banerjee et al. melalui penelitian mereka yang berjudul “Contextual
Restoration of Severely Degraded Document Images” pada tahun 2009, telah
membahas teknik restorasi khusus citra dokumen yang terdegradasi menggunakan
algoritma Markov Random Field (MRF).
Pada penelitian ini, sebelum dilakukan pengenalan pola citra akan terlebih
dahulu memasuki beberapa tahapan pengolahan citra (image processing). Tahap awal
yaitu noise filtering. Pada tahap ini citra akan dibersihkan dari derau (noise) yang
mengganggu kualitas citra. Setelah noise didalam citra dibersihkan, maka citra akan
memasuki tahapan binerisasi. Pada tahapan ini citra akan diubah menjadi citra biner,
dimana semua piksel pada citra akan diubah menjadi hitam dan putih. Selanjutnya
citra akan diproses pada tahapan segmentasi huruf (cropping). Proses ini bertujuan
untuk memisahkan masing-masing huruf pada citra dokumen. Setelah di-cropping,
maka citra masing-masing huruf akan di-restorasi. Hal ini bertujuan untuk menjadikan
kualitas citra huruf kembali seperti aslinya. Selanjutnya citra akan memasuki tahapan
resizing yaitu menyesuaikan ukuran piksel pada citra. Proses ini bertujuan untuk
penyesuaian ukuran data (normalisasi data) antara data training dengan data testing
pada saat pengenalan pola. Setelah citra di-resizing maka akan dilakukan ekstraksi
pola untuk memperoleh nilai-nilai piksel pada citra. Setelah nilai-nilai piksel
didapatkan maka selanjutnya akan dilakukan pengenalan pola. Salah satu algoritma
yang bisa digunakan untuk melakukan pengenalan pola antara lain menggunakan
algoritma jaringan saraf tiruan (Neural Network) Backpropagation.
Berdasarkan uraian di atas, penulis berkeinginan untuk mengerjakan tugas akhir
(tesis) dengan judul “Pengoptimalan Akurasi Pengenalan Pola
UNIVERSITAS SUMATERA UTARA
3
Backpropagation Pada Citra Huruf Terdegrasi Memanfaatkan
Restorasi Citra MRF”.
1.2 Rumusan Masalah
Sesuai dengan latar belakang di atas, maka yang menjadi rumusan masalah dalam
tugas akhir ini adalah seberapa besar pengaruh restorasi citra terhadap tingkat akurasi
pengenalan pola citra huruf yang terdegradasi.
1.3 Batasan masalah
Adapun batasan masalah dalam penelitian ini adalah:
1. Jenis huruf yang diproses pada pengenalan pola hanya huruf cetak, tidak
bersambung.
2. Orientasi huruf harus 0 derajat (tidak miring).
3. Citra yang dideteksi menggunakan format BMP atau JPG dengan resolusi
minimum 30 x 30 pixel.
4. Metode yang digunakan dalam pembersihan noise adalah pixel neighborhood.
5. Ketetapan ukuran yang digunakan untuk resize restorasi adalah 30 x 30 pixel
dan untuk resize ekstraksi pola adalah 10 x 10 pixel.
6. Kategori citra huruf terdegradasi antara lain :
Warna huruf yang sudah kabur (blur).
Pola huruf yang hilang (cuts).
Ada noise pada huruf (blobs).
7. Pola huruf yang tidak lengkap dan noise pada huruf tidak mengakibatkan huruf
tersebut merepresentasikan pola huruf lain.
8. Diasumsikan setiap huruf pada dokumen sudah disegmentasi.
9. Restorasi dilakukan per-huruf.
1.4 Tujuan Penelitian
Tujuan dari penelitian ini adalah mengukur pengaruh restorasi citra terhadap
pengoptimalan akurasi pengenalan pola Backpropagation terhadap citra huruf
terdegradasi.
UNIVERSITAS SUMATERA UTARA
4
1.5 Manfaat Penelitian
Manfaat dari penelitian ini antara lain adalah penelitian yang akan dikerjakan
diharapkan mampu membantu penelitian-penelitian kedepannya terkait pengenalan
pola-pola terdegradasi khususnya pola huruf.
UNIVERSITAS SUMATERA UTARA
BAB 2
LANDASAN TEORI
2.1 Citra Digital
Citra bisa didefinisikan sebagai suatu fungsi dua dimensi f(x,y), dimana x dan y
adalah koordinat spasial dan amplitudo dari f pada keterhubungan antar koordinat
(x,y) disebut dengan intensitas atau level keabuan dari citra pada koordinat tersebut.
Ketika x, y dan nilai ampitudo dari f adalah terbatas, jumlahnya diskrit, maka citra
tersebut adalah citra digital. (Gonzales & Woods, 2002)
Ada beberapa cara untuk menyimpan citra digital di dalam memori. Cara
penyimpanan menentukan jenis citra digital yang terbentuk. Beberapa jenis citra
digital yang sering digunakan adalah citra biner,citra grayscale, dan citra warna.
(Gonzales & Woods, 2002)
2.1.1 Citra Warna
Setiap pixel yang terdapat pada citra warna mewakili warna yang merupakan
kombinasi dari tiga warna dasar (RGB = Red Green Blue). Setiap warna dasar
menggunakan penyimpanan 8 bit = 1 byte, yang berarti setiap warna memiliki gradasi
sebanyak 255 warna. Berarti setiap pixel memiliki kombinasi warna sebanyak 28x
28 x 28 = 16 juta warna lebih. Itulah sebabnya format ini dinamakan true color karena
memiliki jumlah warna yang cukup besar. Penyimpanan citra true color di dalam
memori berbeda dengan citra grayscale. Setiap pixel dari citra grayscale 256 gradasi
warna diwakili oleh 1 byte. Sedangkan 1 pixel citra true color diwakili oleh 3 byte,
dimana masing-masing byte merepresentasikan warna merah (Red), hijau (Green),
dan biru (Blue). (Gonzales & Woods, 2002)
UNIVERSITAS SUMATERA UTARA
6
2.1.2 Citra Grayscale
Citra warna grayscale menggunakan warna tingkatan warna abu-abu. Warna abu-abu
merupakan satu-satunya warna pada ruang RGB dengan komponen merah, hijau, dan
biru mempunyai intensitas yang sama. Banyaknya warna pada citra ini tergantung
pada jumlah bit yang akan disediakan di memori untu menampung kebutuhan warna
ini. Citra dengan skala keabuan empat bit maka jumlah kemungkinan warnanya adalah
24 = 16 warna dengan kemungkinan warna 0 (min) sampai 15 (max). (Gonzales &
Woods, 2002)
2.1.3 Citra Biner
Citra biner disebut juga citra monokrom. Banyak warna citra biner ada 2, yaitu hitam
dan putih. Dibutuhkan 1 bit memori untuk menyimpan kedua warna ini. Setiap pixel
pada citra bernilai 0 untuk hitam dan 1 untuk putih. (Sutoyo, et al)
2.2 Pengolahan Citra Digital
Definisi dari pengolahan citra digital adalah memproses citra dalam bentuk digital
dengan artian digital terkomputerisasi. Dengan catatan citra digital disusun dari
jumlah elemen-elemen yang terbatas, dengan masing-masing elemen memiliki lokasi
tersendiri dan juga nilai. Elemen-elemen inilah yang disebut sebagai elemen gambar,
elemen citra, pel atau pixel. Pixel adalah istilah yang paling sering digunakan untuk
memberitahu elemen dari sebuah citra. (Gonzales & Woods, 2002)
2.2.1 Noise Filtering
Noise diasumsikan sebagai koordinat spasial pada citra, yang berdiri sendiri dan tidak
memiliki korelasi dengan citra itu sendiri (tidak memiliki korelasi antara nilai pixel
citra dengan nilai komponen noise). (Gonzales & Woods, 2002)
Proses noise filtering bertujuan untuk membersihkan citra dari pixel - pixel yang
tidak dibutuhkan atau derau (noise). Salah satu teknik yang dapat digunakan untuk
melakukan noise filtering adalah mean filtering. Misalkan 𝑆𝑥𝑦 menyatakan suatu set
UNIVERSITAS SUMATERA UTARA
7
koordinat di dalam sebuah window persegi pada suatu citra (neighborhood) berukuran
m x n, yang pusatnya adalah (x,y). Mean Filtering menghitung nilai rata-rata dari citra
yang korup pada area 𝑆𝑥𝑦 . Berikut adalah ilustrasi dari teknik Mean filtering (pixel
neighborhood). (Gonzales & Woods, 2002)
Gambar 2.1 Ilustrasi Mean Filtering menggunakan 4-neighborhood dan
8-neighborhood
(Sumber: Saphiro & Stockman, 2000)
2.2.2 Grayscaling
Grayscaling merupakan proses perubahan nilai pixel dari warna (RGB) menjadi
greylevel (Gonzales & Woods, 2002). Pada dasarnya proses ini dilakukan dengan
meratakan nilai pixel dari 3 nilai RGB menjadi 1 nilai. Untuk memperoleh hasil yang
lebih baik, nilai pixel tidak langsung dibagi menjadi 3 melainkan terdapat presentasi
dari masing-masing nilai tersebut. Untuk mengubah gambar RGB menjadi grayscale
dapat menggunakan rumus (Wu, 2007):
Gray = 0.2989 * R + 0.5870 * G + 0.1140 * B
Keterangan :
R = Red (merah)
G = Green (hijau)
B = Blue (biru)
UNIVERSITAS SUMATERA UTARA
8
2.2.3 Binerisasi
Gambar hitam putih relatif lebih mudah dianalisa dibandingkan dengan gambar
berwarna. Karena itu sebelum dianalisa, gambar dikonversikan terlebih dahulu
menjadi binary image. Proses konversi ini disebut binerisasi Dalam proses binerisasi,
warna yang ada dikelompokkan menjadi 0 (hitam) dan 1 (putih). Pengelompokannya
berdasarkan pada suatu konstanta ambang batas (level). Jika nilai pixel lebih besar
sama dengan level, maka nilai outputnya adalah 1, dan sebaliknya, jika nilai pixel
lebih kecil dari level, maka nilai outputnya adalah 0. (Wu, 2007)
2.2.4 Segmentasi (Cropping)
Segmentasi membagi sebuah citra menjadi beberapa komponen wilayah atau objek.
Tingkat kedetailan dimana area pembagian bergantung kepada masalah yang akan
diselesaikan. Artinya segmentasi seharusnya berhenti ketika object atau wilayah yang
ditargetkan telah ditemukan. (Gonzales & Woods, 2002)
Segmentasi citra non-trivial adalah salah satu pekerjaan yang sulit di dalam
image processing. Keakuriasian segmentasi menentukan keberhasilan atau kegagalan
akhir dari analisis prosedur terkomputerisasi. Karena itu, sangatlah perlu untuk
memperhatikan peningkatan probabilitas keakurasian segmentasi. (Gonzales &
Woods, 2002)
2.2.5 Restorasi
Sama seperti peningkatan kualitas citra, tujuan utama dari teknik restorasi yaitu untuk
meningkatkan kualitas citra menggunakan beberapa pengertian yang telah ditentukan.
Meskipun ada bagian yang tumpang tindih, peningkatan kualitas citra sebagian besar
adalah wuatu proses yang subjektif, sedangkan restorasi citra adalah untuk sebagian
besar dalam suatu proses yang objektif. Restorasi adalah usaha memulihkan sebuah
citra yang sudah rusak dengan menggunakan pengetahuan apriori dari fenomena
degradasi. Sehingga teknik restorasi berorientasi kepada memodelkan degradasi dan
mengaplikasikan proses invers yang terurut untuk memulihkan citra aslinya.
(Gonzales & Woods, 2002)
UNIVERSITAS SUMATERA UTARA
9
Degradasi sebuah citra dapat dimodelkan sebagai (Hermawati, 2013):
1. g(x,y) = f(x,y)*h(x,y) ; misalnya proses blurring menggunakan filter average
dengan f(x,y) adalah citra asli, *menyatakan operasi spatial, h(x,y) menyatakan filter
yang digunakan, dan g(x,y) adalah derau yang dimodelkan sebagai fungsi adiktif
(random errors).
2. g(x,y) = f(x,y)*h(x,y)+n(x,y) ; dengan n(x,y) adalah derau yang dimodelkan sebagai
fungsi aditif (random errors).
2.2.6 Resizing (interpolasi citra)
Interpolasi adalah suatu alat dasar yang digunakan secara ekstensif untuk proses
pembesaran (zooming), pengecilan (shrinking), rotasi dan operasi geometrik. Dasar
dari interpolasi adalah proses dari penggunaan data pengetahuan untuk mengestimasi
nilai pada lokasi yang tidak terdefenisi. Andaikan sebuah citra dengan ukuran 500 x
500 pixel akan di-zoom sebesar 1.5 kali menjadi 750 x 750 pixel. Cara mudah untuk
melakukan zooming adalah dengan membuat citra kosong berukuran 750 x 750 pixel
dengan jarak pixel yang sama dengan citra aslinya dan selanjutnya perbesar citra
dengan cara menyesuaikan pixel tepat dengan citra aslinya. Tepatnya, spasi pixel pada
citra 750x750 akan lebih kecil bila dibandingkan dengan spasi pixel pada citra aslinya.
Untuk menampilkan proses level-intensitas untuk setiap poin pada permukaan citra,
kita akan melihat pada pixel terdekat di dalam citra asli dan menetapkan itensitas dari
pixel tersebut ke pixel baru pada citra 750 x 750. Setelah kita menetapkan intensitas
untuk semua poin ke permukaan citra, kita perluas setiap poin ke ukuran asli yang
telah ditetapkan untuk memperoleh citra yang diperbesar. (Gonzales & Woods, 2002)
Metode yang dibahas diatas disebut dengan nearest-neighbor interpolation
karena itu menentukan setiap lokasi baru untuk intensitas dari tetangga terdekat
(nearest neighbor) di dalam citra original. (Gonzales & Woods, 2002)
2.2.7 Ekstraksi Fitur
Sebuah fitur citra adalah karakteristik pembeda primitif atau atribut dari sebuah citra.
Beberapa fitur adalah alami dalam artian seperti fitur yang dideapatkan dari fitur
tampilan sebuah citra, sementara lainnya adalah fitur buatan didapatkan dari
UNIVERSITAS SUMATERA UTARA
10
manipulasi yang spesifik dari sebuah citra. Fitur alami termasuk pencahayaan suatu
wilayah dari pixel dan tekstur skala keabuan dari suatu wilayah. (Pratt, 2001)
Zoning adalah salah satu metode yang sangat populer dalam pengenalan
karakter untuk meng-ekstraksi karakteristik pembeda. Metode tradisional zoning
berdasarkan kepada standar partisi kriteria dari karakter citra (Murthy and
Hanmandlu). Berikut adalah contoh implementasi zoning pada citra huruf.
Gambar 2.2 Implementasi metode zoning terhadap karakter ‘ক’ pada aksara
Dewanagari
(Sumber : Hussein et al, 2015)
2.3 Pengenalan pola (Pattern Recognition)
Pola adalah suatu susunan dari deskripsi. Istilah fitur sering kali digunakan di dalam
literatur pengenalan pola untuk menyimbolkan sebuah deskripsi. Sebuah kelas pola
(pattern class) adalah suatu kumpulan pola yang membagi properti bersama. Kelas
properti disimbolkan dengan 𝑤1, 𝑤2, 𝑤3,..., 𝑤𝑊, dimana 𝑊 adalah jumlah kelas.
Pengenalan pola dengan teknik pengembangan mesin digunakan untuk menentukan
pola untuk masing-masing kelasny secara otomatis dan dengan sedikit intervensi dari
manusia jika memungkinkan. (Gonzales & Woods, 2002)
UNIVERSITAS SUMATERA UTARA
11
Wilayah dari pengenalan pola berkaitan dengan pendeteksian otomatis dari
ketetapan di dalam data melalui penggunaan dari algoritma komputer dan
menggunakan ketetapan tersebut untuk membuat aksi seperti mengklasifikasikan data
menjadi kategori yang berbeda. (Bishop, 2006)
Gambar 2.3 Contoh pola angka dengan tulisan tangan
(Sumber: Bishop, 2006)
2.4 Markov Random Field
2.4.1 Pengertian Markov Random Field
Markov Random Field (MRF) secara umum didefinisikan sebagai koleksi pixel pada
suatu kisi terbatas dengan dimensi D = n x m. Nilai masing-masing pixel diasumsikan
dengan kuantitas acak, dengan nilai-nilai yang terdistribusi secara uniform pada
kisaran Fi,j {0,1,2,...., L1}, dimana L adalah jumlah level pada suatu citra.
Gambar.1 menunjukkan suatu bidang acak, lingkaran yang kecil menggambarkan
lokasi pixel dengan nilai L Bidang konfigurasi didefinisikan sebagai SD dan
deskripsi secara statistik dari suatu citra yang dimodelkan akan menggambarkan
hubungan dari tiap pixel di atas kisi (Adi & Sukmono, 2006), yaitu
P(Fi,j= fi, j | Fk,l= fk,l D)
Dimana F adalah contoh bidang acak dan f adalah nilai yang diasumsikan
sebagai pixel. Untuk mendapatkan suatu representasi statistik dari citra, maka
probabilitas di atas D merupakan keseluruhan dari kisi dengan ukuran yang terbatas
pada D. Oleh karena itu perlu model markovian dari citra yang merupakan perluasan
UNIVERSITAS SUMATERA UTARA
12
bidang dua dimensi dari satu dimensi proses markov, sehingga pemodelan citra
dengan cara ini membuat representasi secara statistik dari suatu citra akan lebih
mudah. (Adi & Sukmono, 2006)
Gambar 2.4 Contoh grid MRF
(Sumber : Adi & Sukmono, 2006)
Pada tahun 1993 oleh Regazzoni melakukan perbaikan citra dengan pendekatan
multilevel Gibbs-Markov Random Fields (GMRF) yang diaplikasikan untuk perbaikan
dan segmentasi citra. Kemudian pengembangan dari MRF dilakukan oleh Smith dan
Roberts dengan melakukan pendekatan Bayesian dengan menggunakan metoda Gibbs
Sampler dan MCMC. Pada penelitian ini dilakukan pengembangan fungsi sampling
secara acak dengan menggunkan metoda MCMC. Markov chain adalah generalisasi
pertama dari peristiwa bebas, probabilitas dari peristiwa pada waktu n + 1 merupakan
fungsi yang hanya menghasilkan peristiwa pada waktu n. Pada tahun 1994 penelitian
ini dikembangkan oleh mereka dengan melihat konvergensi dari algoritma
Metropolis-Hastings sebagai fungsi keputusan dari distribusi pixel untuk restorasi
citra. Pada tahun 1994 Belotsercovsky dkk melakukan pemulihan citra radar secara
stokastik dengan menggunakan transformasi fourier untuk mereduksi jumlah
gelombang. (Adi & Sukmono, 2006)
Proses restorasi citra secara stokastik terus mengalami banyak kemujuan
terutama dengan mengaplikasikan teknik MRF dan Monte Carlo untuk analisis pada
citra biner maupun gray scale. Kemudian pemrosesan informasi secara Bayesian
dengan menggunakan Reversible Jump Markov Chain Monte Carlo (MCMC)
dilakukan oleh Robert yang merupakan pengembangan dari metode MCMC. Metode
pengolahan citra secara stokastik mempunyai kelebihan dalam mengolah citra secara
probabilistik yang dapat dimanfaatkan untuk klasifikasi, segmentasi dan restorasi
citra. Teknik tersebut dilakukan dengan menggunakan metode MCMC sebagai fungsi
UNIVERSITAS SUMATERA UTARA
13
sampling (Adi & Sukmono, 2006).
2.4.2 Markov Random Field untuk Restorasi
Banerjee et al. telah membuat penelitian berjudul “Contextual Restoration of Severaly
Degraded Document Images” yang membahas mengenai teknik restorasi
menggunakan algoritma Markov Random Field khusus untuk citra teks yang
terdegradasi (degraded) seperti dokumen yang terkena tinta, dokumen tua, dokumen
yang di foto copy, dokumen yang di scanning, dan lain-lain seperti yang terlihat
pada Gambar2.26. (Banerjee et al, 2009)
Gambar 2.5 Citra kiri adalah citra dokumen yang terdegradasi, Citra kanan adalah
Citra dokumen setelah direstorasi
(Sumber: Banerjee et al, 2009)
Langkah pertama pada penelitian ini yaitu citra dokumen akan dibagi menjadi
beberapa patch yang masing-masing patch-nya diberikan label, di-training
menggunakan data berkualitas baik, yang akan digunakan untuk menggantikan patch
pada citra terdegradasi seperti Gambar 2.26.
Gambar 2.6 Pembagian patch menggunakan teknik MRF pada citra “Tip”.
(Sumber: Banerjee et al, 2009)
UNIVERSITAS SUMATERA UTARA
14
Langkah kedua adalah mencari patch pada data training yang paling sesuai
dengan masing-masing patch dari dokumen yang terdegradasi. Sebagai contoh pada
Gambar 2.6, patch x5 akan kita bandingkan dengan patch y5. Kalau hasilnya sesuai
selanjutnya akan bandingkan patch tetangga dari x5 yaitu x2, x4, x6 dan x8 dengan
patch tetangga dari y5 yaitu y2, y4, y6, dan y8. (Banerjee et al, 2009)
Sebagai hasilnya teknik restorasi menggunakan algoritma MRF mampu
memperbaiki contoh dokumen seperti Gambar 2.28.
(a)
(b)
(a) Citra dokumen terdegradasi
(b) Citra dokumen hasil restorasi
Gambar 2.7 Hasil restorasi dari citra dokumen terdegradasi
(Sumber: Banerjee et al, 2009)
2.5 Jaringan Saraf Biologi
Otak manusia berisi sekitar 10 milyar sel saraf atau neuron-neuron yang membentuk
jaringan dan berfungsi memproses informasi yang masuk. Sekumpulan neuron (saraf)
yang saling terhubung ini berfungsi untuk memberikan sebuah tanggapan atas sebuah
rangsangan yang mengenainya. Setiap rangsangan memiliki tanggapan-tanggapan
tersendiri dari sebuah neuron tersebut terhadap jenis rangsangan yang mengenainya.
(Fausett, 1994)
Sebuah neuron memiliki 3 tipe komponen yaitu dendrit (bagian yang menerima
rangsang dari axon), soma (badan sel saraf) dan axon (bagian sel yang berhubungan
dengan dendrit sel saraf lain dan membentuk simpul yang disebut sinapsis). Dendrit
dapat menerima banyak sinyal dari neuron lain. Sinyal adalah impuls listrik yang
dipancarkan menyebrangi celah sinapsis yang disebabkan proses kimia. Tindakan dari
pancaran proses kimia mengubah sinyal yang datang (secara khas, dengan penskalaan
UNIVERSITAS SUMATERA UTARA
15
frekuensi sinyal yang diterima). Proses tersebut sama dengan sifat bobot dalam
jaringan saraf tiruan. (Fausett, 1994)
Soma, atau badan sel menjumlahkan sinyal yang datang. Ketika masukan cukup
diterima, sel menjadi aktif, saat itulah sel mengirimkan sinyal melaui axonnya ke sel
lain. Kejadian ini menimbulkan anggapan bahwa setiap sel saraf berada dalam
keadaan aktif atau tidak aktif, pada setiap satuan waktu. Sehingga pengiriman sinyal
dikenali sebagai kode biner. Kenyataannya, frekuensi dari keadaan aktif bervariasi,
sesuai dengan kekuatan sinyal yakni kuat atau lemah magnitudenya. Pencocokan
dengan kode biner ini dilakukan untuk menentukan tahap-tahap dalam tiap waktu
diskrit dan menjumlahkan semua aktivitas (sinyal diterima atau dikirim) pada tahap
tertentu berdasarkan satuan waktu. (Fausett, 1994)
Transmisi sinyal dari neuron tertentu disempurnakan dengan hasil kerja energi
potensial neuron yang disebabkan perbedaan konsentrasi ion-ion dari setiap sisi
sarung pelindung axon neuron (sumsum otak manusia). Ion-ion kebanyakan secara
langsung melibatkan zat-zat potassium, sodium dan klorida. (Fausett, 1994)
Beberapa fitur penting proses elemen dari jaringan saraf tiruan yang berasal dari
cara kerja jaringan saraf biologi (Fausett, 1994):
a. Elemen pemroses menerima beberapa sinyal.
b. Sinyal memungkinkan dimodifikasi oleh bobot pada sinapsis penerima.
c. Elemen pemroses menjumlahkan bobot input.
d. Dalam lingkungan yang sesuai (jumlah input yang sesuai), neuron
mengirimkan output tunggal.
e. Output dari neuron khusus memungkinkan dipindahkan ke beberapa neuron
lain (melalui cabang axon).
Fitur lain dari jaringan saraf buatan yang diadopsi dari jaringan saraf biologi
(Fausett, 1994) :
a. Pemrosesan informasi bersifat lokal (meskipun cara berbeda dalam proses
transmisi, seperti aksi beberapa hormon, memungkinkan penganjuran cara
control proses yang bersifat keseluruhan).
b. Memori terdistribusi :
1. Memori yang berjangka panjang berada dalam sinapsis neuron atau bobot.
2. Memori jangka pendek merespon sinyal kiriman oleh neuron.
UNIVERSITAS SUMATERA UTARA
16
c. Kekuatan sinapsis dapat dimodifikasi oleh pengalaman.
d. Neuron pengirim untuk sinapsis mungkin bersifat pengeksitasi atau
penghambat.
Karakteristik penting lain jaringan saraf tiruan yang merupakan bagian dari
sistem saraf biologi adalah toleransi kesalahan/kekurangan data. Sistem saraf biologi
memiliki toleransi kesalahan dalam 2 aspek (Fausett, 1994):
a. Dapat mengenali banyak input sinyal yang beberapa diantaranya berbeda
dengan yang pernah dikenali sebelumnya. Sebagai contoh kemampuan
manusia untuk mengenali seseorang dari suatu gambaran atau mengenali
seseorang setelah periode yang lama.
b. Dapat menerima kerusakan ke dalam sistem saraf itu sendiri.
Gambar 2.8 Neuron Biologis
(Sumber : Fausett, 1994)
2.6 Jaringan Saraf Tiruan
Jaringan saraf tiruan pertama kali secara sederhana diperkenalkan oleh McCulloch dan
Pitts pada tahun 1943. McCulloch dan Pitts menyimpulkan bahwa kombinasi
beberapa neuron sederhana menjadi sebuah sistem neural akan meningkatkan
kemampuan komputasinya. Bobot dalam jaringan yang diusulkan oleh McCulloch dan
Pitts diatur untuk melakukan fungsi logika sederhana. Fungsi aktivasi yang dipakai
UNIVERSITAS SUMATERA UTARA
17
adalah fungsi threshold. Artificial Neural Network atau Jaringan Saraf Tiruan (JST)
adalah salah satu cabang dari Artificial Intelligence. JST merupakan suatu sistem
pemrosesan informasi yang memiliki karakteristik -karakteristik menyerupai jaringan
saraf biologi (Fausett, 1994). Hal yang sama diutarakan oleh Simon Haykin, yang
menyatakan bahwa JST adalah sebuah mesin yang dirancang untuk memodelkan cara
otak manusia mengerjakan fungsi atau tugas - tugas tertentu (Haykin, 2009).
Sistem JST dicirikan dengan adanya proses pembelajaran (learning) yang
berfungsi untuk mengadaptasi parameter - parameter jaringannya. Neuron adalah unit
pemroses informasi yang menjadi dasar dalam pengoperasian JST. Neuron terdiri atas
tiga elemen pembentuk (Haykin, 2009):
a) Himpunan unit - unit yang dihubungkan dengan jalur koneksi.
b) Suatu unit penjumlah yang akan menjumlahkan input - input sinyal yang
sudah dikalikan dengan bobotnya.
c) Fungsi aktivasi yang akan menentukan apakah sinyal dari input neuron akan
diteruskan ke neuron lain atau tidak.
Pemrosesan informasi dalam JST secara singkat yaitu sinyal (baik berupa aksi
ataupun potensial) muncul sebagai masukan unit (sinapsis), efek dari tiap sinyal ini
dinyatakan sebagai bentuk perkalian dengan sebuah nilai bobot untuk
mengindikasikan kekuatan dari sinapsis. Semua sinyal yang diberi pengali bobot ini
kemudian dijumlahkan satu sama lain untuk menghasilkan unit aktivasi. Jika aktivasi
ini melampaui sebuah batas ambang tertentu maka unit tersebut akan memberikan
keluaran dalam bentuk respon terhadap masukan. Unit aktivasi ini kemudian
dibandingkan dengan sebuah nilai ambang, dan hasilnya dimasukkan kedalam fungsi
transfer (fungsi non - linier) yang akan menghasilkan sebuah keluaran. Secara ringkas
proses tersebut dapat digambarkan dalam gambar 2.22
UNIVERSITAS SUMATERA UTARA
18
Gambar 2.9 Non-linier Neural Network
(Sumber :Haykin, 2009)
2.6.1 Arsitektur Jaringan Saraf Tiruan
Sifat di dalam mana neuron dari sebuah neural network dibangun sangatlah penting
dihubungkan dengan algoritma learning untuk melatih jaringan. Oleh karena itu kita
berbicara mengenai algoritma (aturan) didalam men-desain neural network secara
terstruktur. Secara umum kita bisa mengenal 3 jenis perbedaan mendasar dalam
arsitektur neural network (Haykin, 2009):
2.6.1.1 Jaringan Lapisan Tunggal Umpan Maju (Single Layer
Feedforward Network)
Di dalam sebuah lapisan jaringan saraf tiruan (JST), neuron diorganisasikan dalam
bentuk lapisan (layer). Dalam tampilan sederhana dari suatu lapisan jaringan, kita
memiliki lapisan input (input layer) dari node sumber yang diproyeksikan langsung ke
lapisan output (output layer) dari neuron (node komputasi), tetapi tidak sebaliknya.
Dengan kata lain, jaringan ini adalah bagian dari jenis feedforward (umpan maju). Di
dalam jaringan saraf tiruan ini disebut dengan single layer network, dengan sebutan
UNIVERSITAS SUMATERA UTARA
19
“single layer” yang artinya mengarah kepada lapisan output dari node komputasi
(neurons). Berikut ilustrasi dari feedforward dengan lapisan tunggal.
Gambar 2.10 Jaringan lapisan tunggal
(Sumber : Haykin, 2009)
2.6.1.2 Jaringan Lapisan Jamak Umpan Maju (Multiple Layer
Feedforward Network)
Jenis kedua dari suatu jaringan saraf tiruan feedforward memedakan dirinya dengan
adanya satu atau lebih hidden layer (layer tersembunyi), yang node komputasi sama
dengan hidden neuron atau hidden units. Istilah “hidden” sesuai dengan kenyataan
dimana bagian dari neural network ini berada di antara lapisan input atau output.
Fungsi dari hidden neuron adalah untuk membantu lapisan input dan output dalam
menjalankan manfaat dari jaringan saraf tiruan. Dengan menambahkan satu atau lebih
hidden layer jaringan bisa mengekstrak lebih banyak angka-angka dari lapisan input.
Dengan istilah yang lebih ringan, jaringan memperoleh suatu perspektif global
meskipun dalam konektifitas lokal, sesuai dengan ektra koneksi dan ekstra dimensi
dari interaksi neuron.
Node sumber di dalam input layer dari jaringan meyuplai masing-masing elemen dari
pola aktivasi (vektor input), dimana merupakan sinyal input yang diaplikasikan ke
neuron (node komputasi) di dalam lapisan kedua (hidden layer pertama). Sinyal
output dari lapisan kedua akan digunakan sebagai input pada lapisan ketiga, begitu
UNIVERSITAS SUMATERA UTARA
20
seterusnya sampai akhir jaringan. Berikut adalah ilustrasi dari jaringan multi layer
feedforward.
Gambar 2.11 Jaringan lapisan jamak dengan 1 unit hidden layer
(Sumber : Haykin, 2009)
2.6.1.3 Jaringan Berulang (Recurrent Network)
Sebuah reccurrent neural network membedakan dirinya dengan jaringan saraf tiruan
feedforward dengan memiliki paling sedikit satu perulangan feedback. Sebagai
contoh, suatu jaringan recurrent bisa terdiri dari satu lapisan tunggal dengan masing-
masing neuron memngirim sinyal output kembali ke semua neuron pada lapisan input.
Dalam struktur jaringan yang digambarkan pada gambar 17 tidak ada perulangan self-
feedback di dalam jaringan. Self-feedback berarti kepada situasi dimana output dari
suatu neuron dikembalikan kepada input itu sendiri. Berikut adalah ilustrasi dari
reccurent network tanpa lapisan tersembunyi (hidden layer) dan tanpa self-feedback.
UNIVERSITAS SUMATERA UTARA
21
Gambar 2.12 Jaringan berulang tanpa perulangan self feedback
dan tanpa lapisan tersembunyi
(Sumber : Haykin, 2009)
Bentuk dari feedback loop, sangat berdampak kepada kemampuan learning dan
performansi dari jaringan. Selain itu, perulangan feedback mengakibatkan penggunaan
cabang tertentu menciptakan elemen delay unit-time (yang dinotasikan dengan 𝑍−1),
dimana dihasilkan di dalam suatu sifat non linear, mengasumsikan jaringan saraf
tiruan tersebut memiliki unit non-linier.
Gambar 2.13 Jaringan berulang memiliki perulangan self feedback
dan memiliki lapisan tersembunyi
(Sumber : Haykin, 2009)
UNIVERSITAS SUMATERA UTARA
22
2.6.2 Proses Pembelajaran (Training dan Testing)
Fusett (1994) dalam kutipan Puspitaningrum (2006) menjelaskan terdapat dua tipe
pembelajaran dalan Jaringan Syaraf Tiruan , yaitu (Fusett, 1994):
1. Pembelajaran Terawasi (Supervised Learning)
Disebut terawasi jika output yang diharapkan telah diketahui sebelumnya. Pada
proses pembelajaran, satu pola input akan diberikan ke satu neuron pada lapisan input.
Pola ini akan dirambatkan di sepanjang jaringan saraf hingga sampai ke neuron pada
lapisan output. Lapisan output ini akan membangkitkan pola output yang nantinya
akan dicocokkan dengan pola output targetnya. Apabila terjadi perbedaan antara pola
output hasil pembelajaran dengan pola target, maka disini akan muncul error. Apabila
nilai error ini masih cukup besar, mengindikasikan bahwa masih perlu dilakukan lebih
banyak pembelajaran lagi. Terdapat berbagai tipe pembelajaran terawasi beberapa
diantaranya Hebb Rule, Perceptron, Delta Rule, Backpropagation, Heteroassociative
Memory, Bidirectional Associative Memory (BAM), Learning Vector Quantization
(LVQ).
2. Pembelajaran Tak Terawasi (Unsupervised Learning)
Pembelajaran tak terawasi tidak memerlukan target output dan tidak dapat
ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran.
Selama proses pembelajaran, nilai bobot disusun dalam suatu range tertentu
tergantung pada nilai input yang diberikan. Tujuan pembelajaran ini adalah
mengelompokkan unit - unit yang hampir sama dengan suatu area tertentu.
Pembelajaran ini biasanya sangat cocok untuk pengelompokan (klasifikasi) pola.
Contohnya adalah jaringan kohonen (kohonen network).
2.7 Backpropagation
Salah satu metode pelatihan dalam NN adalah pelatihan terbimbing (supervised
learning). BPNN merupakan salah satu metode yang menggunakan supervised
learning. Pada pelatihan terbimbing diperlukan sejumlah masukan dan target yang
berfungsi untuk melatih jaringan hingga diperoleh bobot yang diinginkan. Pada setiap
kali pelatihan, suatu input diberikan ke jaringan, kemudian jaringan akan memproses
dan mengeluarkan keluaran. Selisih antara keluaran jaringan dengan target merupakan
UNIVERSITAS SUMATERA UTARA
23
kesalahan yang terjadi, dimana jaringan akan memodifikasi bobot sesuai dengan
kesalahan tersebut. (Fausset, 1994)
Algoritma pelatihan Backpropagation Neural Network (BPNN) pertama kali
dirumuskan oleh Werbos dan dipopulerkan oleh Rumelhart dan Mc.Clelland (Hagan,
1996). Pada supervised learning terdapat pasangan data input dan output yang dipakai
untuk melatih JST hingga diperoleh bobot penimbang (weight) yang diinginkan.
Penimbang itu sendiri adalah sambungan antar lapis dalam JST. Algoritma ini
memiliki proses pelatihan yang didasarkan pada interkoneksi yang sederhana, yaitu
apabila keluaran memberikan hasil yang salah, maka penimbang dikoreksi agar galat
dapat diperkecil dan tanggapan JST selanjutnya diharapkan dapat mendekati nilai
yang benar. BPNN juga berkemampuan untuk memperbaiki penimbang pada lapis
tersembunyi (hidden layer). (Fausset, 1994)
Gambar 2.14: Lapis dan aliran sinyal dalam algoritma BPNN
Sumber : Fausset (1994)
Secara garis besar BPNN terdiri atas tiga lapis (layer) yaitu lapis masukan (input
layer) 𝑥𝑖, lapis tersembunyi (hidden layer) 𝑦𝑗 , dan lapis keluaran (output layer) 𝑧𝑘.
Lapis masukan dan lapis tersembunyi dihubungkan dengan penimbang wij dan antara
lapis tersembunyi dan lapis keluaran dihubungkan oleh penimbang 𝑤𝑗𝑘′ . Pada
dasarnya, metode pelatihan backpropagation terdiri dari tiga langkah, yaitu (Fausset,
1994) :
1) Data dimasukkan kedalam input node atau jaringan (feedforward);
2) Perhitungan dan propagasi balik dari error yang bersangkutan;
3) Pembaharuan (adjustment) bobot dan bias.
UNIVERSITAS SUMATERA UTARA
24
Pada pelatihan BPNN, ketika JST diberi pola masukan sebagai pola pelatihan
maka pola tersebut akan menuju ke unit pada lapis tersembunyi untuk diteruskan pada
unit yang berada pada lapis keluaran. Keluaran sementara pada lapis tersembunyi 𝑢𝑘
akan diteruskan pada lapis keluaran dan lapis keluaran akan memberikan tanggapan
yang disebut sebagai keluaran sementara u’k. Ketika 𝑢𝑘′ ≠ 𝑜𝑘 dimana ok adalah target
yang diharapkan, maka selisih (error) keluaran sementara 𝑢𝑘′ akan disebarkan mundur
(backward) pada lapis tersembunyi dan diteruskan ke unit pada lapis masukan. Oleh
karena itu proses tersebut disebut propagasi balik (backpropagation) dimana tahap
pelatihan dilakukan dengan merubah penimbang yang menghubungkan unit dalam
lapis JST ketika diberi umpan maju dan umpan balik. (Fausset, 1994)
Untuk mempercepat proses pelatihan digunakan parameter laju pelatihan
(learning rate) yang nilainya berada pada kisaran 0-1. Selain parameter laju pelatihan,
untuk mempercepat proses pelatihan dapat digunakan parameter tambahan berupa
momentum yang nilainya dijaga antara 0.5 - 0.9. Ketika proses pelatihan selesai dan
JST dapat digunakan untuk menyelesaikan masalah, tahap tersebut disebut sebagai
tahap penggunaan yang disebut mapping atau pemetaan. (Fausset, 1994)
Algoritma pelatihan BPNN terdiri dari dua tahap, yaitu feedforward propagation
dan feed backward propagation. Untuk selengkapnya, notasi-notasi yang akan
digunakan pada algoritma BPNN adalah (Fausset, 1994):
x Input untuk training x = ( x1,…,xi,…,xn )
t Output target t = ( t1,…,tk,…,tm )
α Learning rate, yaitu parameter yang mengontrol perubahan bobot
selama pelatihan. Jika learning rate besar, jaringan semakin cepat
belajar, tetapi hasilnya kurang akurat. Learning rate biasanya
dipilih antara 0 dan 1
Unit input ke-i. untuk unit input, sinyal yang masuk dan keluar
pada suatu unit dilambangkan dengan variabel yang sama, yaitu
UNIVERSITAS SUMATERA UTARA
25
Hidden unit ke-j. sinyal input pada dilambangkan dengan
. Sinyal output (aktivasi) untuk dilambangkan dengan
Bias untuk hidden unit ke-j
Bobot antara unit input ke-i dan hidden unit ke-j
Unit output ke-k. sinyal input ke dilambangkan . Sinyal
output (aktivasi) untuk dilambangkan dengan
Bias untuk unit output ke-k
Bobot antara hidden unit ke-j dan unit
output ke-k Faktor koreksi error untuk
bobot
Faktor koreksi error untuk bobot
Algoritma Pelatihan Backpropagation meliputi 3 fase, antara lain (Fausset, 1994):
1. Tahap umpan maju (feedforward)
Pola masukan dihitung maju mulai dari layar masukan hingga layar keluaran
menggunakan fungsi aktivasi yang ditentukan.
2. Tahap umpan mundur (backpropagation)
Selisih antara keluaran jaringan dengan target yang diinginkan merupakan
kesalahan yang terjadi. Kesalahan tersebut dipropagasikan mundur, dimulai dari
garis yang berhubungan langsung dengan unit - unit di layar keluaran
3. Tahap update bobot dan bias.
Pada fase ini dilakukan modifikasi bobot untuk menurunkan kesalahan yang terjadi.
Ketiga fase tersebut diulang - ulang terus hingga kondisi penghentian dipenuhi.
a. Fase I: Propagasi Maju
Selama propagasi maju, sinyal masukan (Xi) dipropagasikan ke layar
tersembunyi menggunakan fungsi aktivasi yang ditentukan. Keluaran dari setiap
unit layar tersembunyi ( Zj) tersebut selanjutnya dipropagasikan maju lagi ke
UNIVERSITAS SUMATERA UTARA
26
layar tersembunyi di atasnya menggunakan fungsi aktivasi yang ditentukan.
Demikian seterusnya hingga menghasilkan keluaran jaringan ( yk). Berikutnya,
keluaran jaringan (yk) dibandingkan dengan target yang harus dicapai (tk).
Selisih tk - yk adalah kesalahan yang terjadi. Jika kesalahan ini lebih kecil dari
batas toleransi yang ditentukan, maka iterasi dihentikan. Akan tetapi apabila
kesalahan masih lebih besar dari batas toleransinya, maka bobot setiap garis
dalam jaringan akan dimodifikasi untuk mengurangi kesalahan yang terjadi.
b. Fase II: Propagasi Mundur
Berdasarkan kesalahan tk - yk, dihitung faktor δk (k = 1,2,..., m) yang dipakai
untuk mendistribusikan kesalahan di unit yk ke semua unit tersembunyi yang
terhubung langsung dengan yk. δk juga dipakai untuk mengubah bobot garis
yang berhubungan langsung dengan unit keluaran. Dengan cara yang sama,
dihitung faktor δ- di setiap unit di layar tersembunyi sebagai dasar perubahan
bobot semua garis yang berasal dari unit tersembunyi di layar di bawahnya.
Demikian seterusnya hingga semua faktor δ di unit tersembunyi yang
berhubungan langsung dengan unit masukan dihitung.
c. Fase III: Perubahan Bobot
Setelah semua faktor δ dihitung, bobot semua garis dimodifikasi bersamaan.
Perubahan bobot suatu garis didasarkan atas faktor δ neuron di layar atasnya.
Sebagai contoh, perubahan bobot garis yang menuju ke layar keluaran
didasarkan atas δk yang ada di unit keluaran. Ketiga fase terebut diulang-ulang
terus hingga kondisi penghentian dipenuhi. Umumnya kondisi penghentian yang
sering dipakai adalah jumlah iterasi atau kesalahan. Iterasi akan dihentikan jika
jumlah iterasi yang dilakukan sudah melebihi jumlah maksimum iterasi yang
ditetapkan, atau jika kesalahan yang terjadi sudah lebih kecil dari batas toleransi
yang diijinkan. Algoritma propagasi balik menggunakan error output untuk
mengubah nilai bobot-bobotnya dalam arah mundur (backward). Untuk
mendapatkan error ini, tahap perambatan maju (forward propagation) harus
dikerjakan terlebih dahulu. Pada saat perambatan maju, neuron-neuron
diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu :
xe
xf
1
1)(
UNIVERSITAS SUMATERA UTARA
27
Adapun algoritma backpropagation adalah sebagai berikut : (Fausset, 1994) :
Inisialisasi bobot (ambil bobot awal dengan nilai random yang cukup kecil).
Kerjakan langkah - langkah berikut selama kondisi berhenti bernilai FALSE:
1. Untuk tiap - tiap pasangan elemen yang akan dilakukan pembelajaran,
kerjakan :
Tahap I. Feedforward :
a. Tiap - tiap unit input (Xi, i=1,2,3,...,n) menerima sinyal xi dan meneruskan
sinyal tersebut ke semua unit pada lapisan yang ada diatasnya (lapisan
tersembunyi).
b. Tiap - tiap unit tersembunyi (Zj, j=1,2,3,...,p) menjumlahkan sinyal -sinyal
input terbobot :
n
i
ijijj vxvinz1
0_
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya :
Zj = f(z_inj)
Dan kirimkan sinyal tersebut ke semua unit di lapisan atasnya (unit - unit
output).
c. Tiap - tiap unit output (Yk, k=1,2,3,...,m) menjumlahkan sinyal - sinyal
input terbobot.
p
i
jkikj wzwiny1
0_
Gunakan fungsi aktivasi untuk menghitung sinyal outputnya :
yk=f(y_ink)
Dan kirimkan sinyal tersebut ke semua unit dilapisan atasnya (unit - unit
output).
Tahap II. Backpropagation:
d. Tiap - tiap unit output (Yk, k=1,2,3,...,m) menerima target pola yang
berhubungan dengan pola input pembelajaran, hitung informasi error nya :
)_()( kkkk inyfyt
Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk
memperbaiki nilai wjk) :
jkjk zW
UNIVERSITAS SUMATERA UTARA
28
Hitung juga koreksi bias (yang nantinya akan digunakan untuk memperbaiki
nilai w0k ) :
kkw 0
Kirimkan k ini ke unit-unit yang ada dilapisan bawahnya.
e. Tiap - tiap unit tersembunyi (Zj, j=1,2,3,...,p) menjumlahkan delta input-nya
(dari unit-unit yang berada pada lapisan diatasnya) :
m
i
jkkj win1
_
Kalikan nilai ini dengan turunan dari fungsi aktivasinya untuk menghitung
informasi error :
)_(_ jjj inzfin
Kemudian hitung koreksi bobot (yang nantinya akan digunakan untuk
memperbaiki nilai vij):
ijjk xv
Kemudian hitung koreksi bias (yang nantinya akan digunakan untuk
memperbaiki nilai v0j):
jjv 0
f. Tiap - tiap unit output (Yk, k=1,2,3,...,m) memperbaiki bias dan bobotnya
(j=0,1,2,...,p):
jkjkjk wlamawbaruw )()(
Tiap-tiap unit tersembunyi (Zj, j=1,2,3,...,p) memperbaiki bias dan bobotnya
(i=0,1,2,...,n)
2. Cek Kondisi berhenti berdasarkan error atau epoch.
ijijij wlamavbaruv )()(
UNIVERSITAS SUMATERA UTARA
29
2.8 Penelitian Terkait
Dalam melaksanakan penelitian ini, penulis memanfaatkan beberapa penelitian terkait
sebagai latar belakang dan referensi penulis. Adapun penelitian-penelitian tersebut
diterakan pada tabel 2.1.
Tabel 2.1 Penelitian Terkait
No Judul Nama Peneliti
dan Tahun
Penelitian
Metode Yang
Digunakan
Hasil Penelitian
1. Contextual
Restoration of
Severely
Degraded
Document Image
Jyotirmoy
Banerjee,
Anoop M.
Namboodiri,
and C.V.
Jawahar
(2009)
Markov Random
Field (MRF)
Teknik restorasi
khusus pada citra
teks ter-degradasi
2. Mobile OCR
Using Centroid to
Boundary and
Backpropagation
Neural Network
Bakti Anugrah
Pratama,
Tjokorda
Agung Budi
W, Kurniawan
Nur R,
Febryanti
Sthevanie
(2015)
Centroid to
Boundary,
Backpropagation
Teknik Ekstraksi
Fitur (Centroid to
Boundary)
menghasilkan data
input untuk
pengenalan pola
Backpropagation
3. Neural Networks
and Machine
Learning for
Pattern
Recognition
Shyla Afroge,
Boshir Ahmed,
Firoz Mahmud
(2015)
Decision Tree
(Machine
Learning),
Backpropagation
Perbandingan
akurasi antara
Decision Tree
dengan
Backpropagation
dalam melakukan
Pengenalan Pola
Huruf (A-Z).
UNIVERSITAS SUMATERA UTARA
30
4. OCR-ANN
BackPropagation
Based Classifier
Asmaa Qasim
Shareef,
Sukaina M.
Altayar (2016)
Backpropagation Pengenalan pola
karakter (Optical
Character
Recognition)
Bakcpropagation
dengan
mengkombinasikan
beberapa teknik
pengolahan citra
(pre-processing).
5. Optical Character
Recognition using
Backpropagation
Neural Network
Shyla Afroge,
Boshir Ahmed,
Firoz Mahmud
(2016)
Backpropagation Pengenalan pola
karakter (OCR)
pada citra engan
background
ber-noise.
2.9 Perbedaan Penelitian
Penelitian ini berfokus dalam membandingkan tingkat akurasi pengenalan pola
Backpropagation pada citra huruf yang terdegradasi (ber-noise atau tidak lengkap).
Perbandingan akurasi akan didapatkan dari pengenalan pola citra huruf terdegradasi
yang sudah melalui tahapan restorasi Markov Random Field (MRF) dengan yang
belum melalui tahapan restorasi Markov Random Field (MRF).
UNIVERSITAS SUMATERA UTARA
BAB 3
METODOLOGI PENELITIAN
3.1 Tahapan proses
Adapun tahapan proses pada pengerjaan aplikasi ini adalah :
1 Proses Noise Filtering
2 Proses Binerisasi
3 Proses Segmentasi Karakter (Cropping )
4 Proses Restorasi Huruf
5 Proses Resizing
6 Proses Ekstraksi Pola
7 Proses Algoritma Backpropagation
3.2 Proses Noise Filtering
Proses noise filtering bertujuan untuk membersihkan citra dari pixel - pixel yang tidak
dibutuhkan atau derau (noise) yang mengakibatkan terganggunya data-data yang
terkandung di dalam citra. Salah satu metode noise filtering yang dapat digunakan
yaitu metode pixel neighborhood. Pixel neighborhood merupakan istilah dalam image
processing yang artinya pixel tetangga. Maksud dari pixel tetangga ini adalah pixel
yang terdapat di sekeliling pixel yang akan diproses. Penggunaan pixel - pixel lain
yang ada di sekeliling suatu pixel yang akan diproses ini bertujuan untuk membuat
nilai dari pixel yang berada di tengah - tengah pixel lainnya tersebut menjadi berubah
sesuai dengan keinginan user. Matriks pixel neighborhood ada yang memakai model
rectangle juga ada yang memakai model star. Tetapi, yang paling sering digunakan
adalah model rectangle seperti yang terlihat pada gambar 3.1 dibawah ini.
UNIVERSITAS SUMATERA UTARA
32
P1 P2 P3
P4 P5 P6
P7 P8 P9
Gambar 3.1 Rectangle Filter 3x3
Pada gambar 3.1, P1 sampai P9 adalah sekumpulan pixel yang terdapat pada
sebuah matriks citra berukuran 3x3. Dimana pusat matriks citra berada pada pixel P5
dan pixel yang ada disekitarnya disebut sebagai pixel tetangga (pixel neighborhood).
Setiap pixel (P1-P9) mengandung komponen warna Red, Green dan Blue dengan nilai
antara 0 sampai 255. Proses noise filtering menggunakan metode neighborhood dapat
dilihat pada contoh matriks citra RGB dengan ukuran 3x3 di bawah ini.
Langkah awal dari proses noise filtering yaitu memisahkan nilai masing-masing
komponen warna (RGB) untuk keseluruhan pixel pada matriks citra. Ilustrasi
pemisahan nilai komponen warna dapat dilihat pada matriks di bawah ini:
Red Green Blue
Setelah nilai komponen warna dipisahkan, maka kita akan mencari nilai rata-rata
dari setiap komponen warnanya menggunakan mean filtering. Proses pencarian nilai
rata-rata menggunakan mean filtering adalah sebagai berikut:
R=(0+0+0+0+255+0+0+0+0)/9 = 255/9 = 28,3 = 28
G=(0+0+0+0+0+0+0+0+0)/9 = 0/9 = 0
B=(255+255+255+255+0+255+255+255+255)/9 = 2040/9 = 226,7 = 226
Hasil yang diperoleh dari perhitungan nilai rata-rata komponen warna (RGB)
akan menggantikan nilai RGB pada piksel P5 (pixel pusat):
P1(0, 0, 255) P2(0, 0, 255) P3(0, 0, 255)
P4(0, 0, 255) P5(255, 0, 0) P6(0, 0, 255)
P7(0, 0, 255) P8(0, 0, 255) P9(0, 0, 255)
UNIVERSITAS SUMATERA UTARA
33
Setelah dilakukan mean filtering, maka pixel P5 yang awalnya memiliki nilai
Red = 255, Green = 0 dan Blue = 0 kini berubah menjadi Red = 28, Green = 0, dan
Blue = 226. Sehingga terbentuklah nilai matriks baru seperti pada gambar 3.2.
Gambar 3.2 Contoh Hasil Penerapan Noise Filtering Neighborhood
Algoritma proses noise filtering untuk membersihkan atau mereduksi noise
pada citra adalah sebagai berikut:
1. Input citra
2. Untuk X = 0 sampai tinggi_piksel – 1, lakukan :
a. Untuk Y = 0 sampai lebar_gambar – 1, lakukan :
i. Ambil nilai piksel pada posisi (X, Y) beserta piksel tetangga.
ii. Hitung RGB dengan membagi total nilai pada RGB pada matrik citra dibagi
dengan banyak piksel. Simpan nilai perhitungan kedalam sebuah variable.
iii. Ubah nilai piksel pada posisi (X, Y) dengan nilai variable.
3. Tampilkan citra hasil reduksi noise dengan filter neighborhood.
3.3 Proses Binerisasi
Proses binerisasi merupakan suatu proses pengubahan nilai - nilai pixel citra RGB
menjadi citra hitam putih (biner). Untuk mendapatkan citra biner, maka kita harus
melakukan proses greyscale terlebih dahulu. Adapun langkah-langkah untuk
melakukan binerisasi adalah sebagai berikut:
1. Ambil nilai RGB dari setiap pixel.
2. Selanjutnya kita masuk ke proses greyscale. Untuk melakukan proses
greyscale maka hitung dengan rumus:
greyscale = R + G + B / 3
3. Setelah mendapatkan nilai greyscale, lakukan proses binerisasi dengan cara
membandingkan dengan nilai threshold yang nilai defaultnya adalah 128.
- Jika nilai greyscale < 128, maka set nilai RGB dari pixel tersebut dengan
R= 0, G= 0 dan B= 0.
- Dan jika nilai greyscale < 128, maka set nilai RGB dari pixel tersebut
dengan R= 255, G= 255 dan B= 255.
P1(0, 0, 255) P2(0, 0, 255) P3(0, 0, 255)
P4(0, 0, 255) P5(28, 0, 226) P6(0, 0, 255)
P7(0, 0, 255) P8(0, 0, 255) P9(0, 0, 255)
UNIVERSITAS SUMATERA UTARA
34
Untuk mengubah nilai pixel RGB menjadi pixel biner dilakukan tahapan seperti
contoh di bawah ini.
Misalkan terdapat sebuah pixel P1 dengan nilai RGB-nya adalah R=120, G=250
dan B=225. Untuk mengubah nilai pixel RGB menjadi pixel biner dilakukan tahapan
seperti di bawah ini :
- Hitung nilai greyscale
greyscale = R + G + B / 3
greyscale = 120 + 250 + 255 / 3 = 198,3 = 198
- Bandingkan, apakah nilai greyscale (198) > threshold (128)?
- Karena nilai greyscale lebih besar dari threshold, maka ganti nilai RGB
pada pixel P1 menjadi R=255, G=255 dan B=255
Adapun algoritma lengkap untuk proses binerisasi adalah sebagai berikut:
1. Input citra.
2. Untuk X = 0 sampai tinggi_piksel – 1, lakukan :
a. Untuk Y = 0 sampai lebar_gambar – 1, lakukan :
i. Ambil nilai piksel pada posisi (X, Y).
ii. Jumlahkan nilai piksel RGB dan dibagi dengan tiga. Simpan hasil
perhitungan kedalam sebuah variabel sementara.
iii. Cek apakah hasil perhitungan ≥ 128, jika benar set nilai variabel menjadi
255 dan jika salah set nilai variabel menjadi 0.
iv. Ubah nilai piksel pada posisi (X, Y) dengan nilai variabel
3. Tampilkan citra hasil binerisasi.
3.4 Proses Cropping
Proses segementasi karakter (crooping) adalah proses yang digunakan untuk
memisahkan karakter huruf pada citra yang akan digunakan untuk data pelatihan dan
data pengujian. Proses segmentasi dibagi menjadi 3 tahap yaitu proses segmentasi
secara vertikal, proses segmentasi secara horizontal dan proses pemotongan citra.
Maka algoritma untuk pemisahan karakter adalah sebagai berikut:
P1
UNIVERSITAS SUMATERA UTARA
35
a. Proses segementasi vertikal dilakukan dengan cara menghitung jumlah pixel
hitam pada posisi X dan pixel hitam pada posisi X-1 dari awal sampai lebar.
Jika jumlah hitam pada pixel X > 0 dan jumlah pixel hitam pada posisi X-1 =
0, maka pixel X adalah kiri. Jika jumlah hitam pada pixel X = 0 dan jumlah
pixel hitam pada posisi X-1 > 0, maka pixel X-1 adalah kanan. Hasil
penelusuran secara vertikal seperti terlihat pada gambar 3.5 dibawah ini.
Gambar 3.3 Hasil Croping Secara Vertikal
b. Setelah posisi kiri dan kanan pada citra ditemukan lakukan segmentasi secara
horizontal dengan cara menghitung jumlah pixel hitam pada posisi Y dan
jumlah pixel hitam pada posisi Y-1 dari kiri sampai kanan. Jika jumlah hitam
pada pixel Y > 0 dan jumlah hitam pada pixel Y-1 = 0, maka Y adalah atas.
Jika jumlah pixel Y = 0 dan jumlah pixel Y-1 > 0, maka pixel Y – 1 adalah
bawah. Hasil penelusuran seperti terlihat pada gambar 3.6 dibawah ini:
Gambar 3.4 Hasil Croping Secara Horizontal
c. Jika posisi kiri, kanan, atas dan bawah didapatkan, ambil semua pixel dari
posisi kiri ke kanan dan dari atas ke bawah. Setelah itu pindahkan semua
pixel kedalam citra baru dengan jumlah pixel yang sama dengan jumlah pixel
yang sudah diambil. Hasil crop secara vertikal dan horizontal ini akan
menghasilkan gambar satu karakter untuk setiap cropping seperti terlihat
pada gambar 3.7 dibawah ini:
Gambar 3.5 Hasil Satu Karakter Untuk Setiap Cropping
Algoritma proses segmentasi dan pengenalan karakter adalah sebagai berikut.
Algoritma ini akan memenggal setiap karakter, dengan memeriksa batas warna putih
antar karakter. Setiap piksel hitam yang bersambung akan dianggap sebagai 1
karakter. Hasil pemisahan karakter ini akan diekstraksi polanya dan kemudian
dikenali dengan menggunakan algoritma Backpropagation.
UNIVERSITAS SUMATERA UTARA
36
A. Algoritma proses segmentasi secara vertikal adalah sebagai berikut :
1 Input citra biner
2 a. Set array left(100), right (100), top (100), bottom (100)
b. Set kiri = 0, kanan = 0, atas = 0, bawah = 0
c. Set jumlah_huruf = 0
d. Set hitam = false, putih = false
3 Untuk perulangan X = 0 sampai lebar_citra – 1, lakukan :
a. Set jumlah_hitam1 = 0, jumlah_hitam2 = 0
b.Untuk perulangan Y = 0 sampai tinggi_citra -1, lakukan :
i.Set prev_piksel = piksel(X-1, Y), piksel = piksel(X, Y)
ii.Hitung Tmp1 = (Red(X, Y). + Green(X, Y) + Blue(X, Y)) / 3 < 150, maka
set jumlah_hitam1 = jumlah_hitam1 + 1.
iii. Hitung Tmp2 = (Red(X-1, Y). + Green(X-1, Y) + Blue(X-1, Y)) / 3 < 150,
maka set jumlah_hitam2 = jumlah_hitam2 + 1.
c. Jika jumlah_hitam1 ≥ 1 dan jumlah_hitam2 = 0, maka hitam= true dan kiri =
X
d.Jika jumlah_hitam1 = 0 dan jumlah_hitam2 ≥1, maka putih = true dan kanan=
X
e. Jika hitam = true dan putih = true, maka set :
- Left(jumlah_huruf) = kiri
- Right(jumlah_huruf ) = kanan
- Jumlah_huruf = jumlah_huruf + 1
- Hitam = false, putih = false
B. Algoritma proses segmentasi secara horizontal adalah sebagai berikut:
1. Input Citra biner
2. Untuk perulangan J = 0 sampai jumlah_huruf - 1, lakukan :
a. Untuk perulangan Y = 0 sampai tinggi_citra -1, lakukan :
i. Set jumlah_hitam1 = 0, jumlah_hitam2 = 0
ii. Untuk perulangan X=left(J) sampai right (J), lakukan :
1) Set prev_piksel = piksel(X, Y-1), piksel = piksel(X, Y)
2) Hitung Tmp1 = (Red(X, Y). + Green(X, Y) + Blue(X, Y)) / 3 < 150,
maka
set jumlah_hitam1 = jumlah_hitam1 + 1.
UNIVERSITAS SUMATERA UTARA
37
3) Hitung Tmp2 = (Red(X, Y-1). + Green(X, Y-1) + Blue(X, Y-1)) / 3 <
150
maka set jumlah_hitam2 = jumlah_hitam2 + 1.
iii. Jika jumlah_hitam1 >= 1 dan jumlah_hitam2 = 0, maka hitam= true dan
atas = Y
iv. Jika jumlah_hitam1 = 0 dan jumlah_hitam2 >= 1, maka putih = true dan
bawah =Y
v. Jika hitam = true dan putih = true, maka set :
- Top(J) = atas
- Bottom(J) = bawah
- Hitam = false, putih = false
vi. Untuk perulangan K = 0 sampai jumlah_huruf -1, lakukan :
1) Crop gambar dengan membentuk sebuah citra baru dalam bentuk
rectangle dengan fungsi VB.Net dengan posisi (Left(K), Up(K),
Right(K) – Left (K), Bottom (K) – Up(K))
3.5 Proses Restorasi Huruf
Proses restorasi huruf merupakan salah satu kunci untuk pengoptimalan pengenalan
pola menggunakan alogritma Neural Network. Jika citra huruf sudah direstorasi, maka
pola huruf akan kembali seperti aslinya tanpa ada noise. Proses ini bertujuan untuk
mengoptimalkan tingkat akurasi pada saat proses pengenalan pola.
Restorasi pada penelitian ini dilakukan secara per-huruf. Teknik Restorasi yang
digunakan yaitu Markov Random Field (MRF). Untuk melakukan restorasi ini, kita
membutuhkan data citra huruf yang berkualitas baik sebagai bahan perbandingan
kalau citra huruf yang berkualitas buruk identik dengan huruf apa pada citra yang
berkualitas baik. Adapun algoritmanya adalah sebagai berikut :
1. Bagilah setiap citra huruf menjadi patch 3 x 3.
2. Berilah setiap label untuk masing-masing patchnya mulai dari x1 sampai x9.
3. Bandingkan citra yang akan direstorasi dengan citra pada data learning, dengan
cara menghitung nilai MAP terhadap data learningnya yang disimbolkan dengan:
UNIVERSITAS SUMATERA UTARA
38
4. Ganti (generate) patch citra yang berkualitas buruk dengan patch citra yang
memiliki nilai MAP paling tinggi.
3.6 Proses Resizing Image
Proses resizing merupakan proses perubahan ukuran citra yang sudah di crooping
menjadi citra dengan ukuran yang sudah ditentukan yaitu 10 x 10 piksel. Proses
resizing bertujuan untuk menetapkan ukuran dari citra yang akan di latih dan citra
yang akan diuji sehingga hasil pengujian dari citra tidak akan keliru. Proses resizing
dilakukan dengan memanfaatkan fungsi yang sudah ada di dalam VB.Net yaitu
dengan cara memindahkan citra hasil crooping kedalam citra baru dengan ukuran 10 x
10 pixel. Gambar hasil resizing setelah dilakukan crooping terlihat paada gambar 3.10
berikut ini.
(a). Citra awal (b). Citra setelah di resizing
Gambar 3.6 Citra Hasil Resizing
Algoritma proses resizing image adalah sebagai berikut:
1. Input citra huruf yang sudah di crooping.
2. Sediakan citra baru dengan ukuran 10 x 10 piksel.
3. Gambarkan citra huruf kedalam citra baru dengan menggunakan fungsi pada
VB.Net.
4. Set citra baru menjadi citra hasil resizing.
3.7 Proses Ekstraksi Pola
Ekstraksi pola merupakan salah satu cara untuk mengenali karakter dengan melihat
ciri – ciri khusus yang dimiliki oleh karakter tersebut. Tujuan dari proses ini adalah
untuk memberi kode yang berbeda pada setiap karakter sehingga karakter yang satu
dengan karakter yang lain dapat dipisahkan berdasarkan kode yang dimilikinya.
Proses ekstraksi pola adalah pengubahan pola atau ciri karakter menjadi sebuah nilai
digital (angka). Caranya adalah sebagai berikut:
UNIVERSITAS SUMATERA UTARA
39
1. Dari gambar yang sudah di resizing menjadi ukuran 10 x 10 pixel, periksa jumlah
pixel hitam dan pixel putih pada masing-masing pixel.
2. Bila jumlah pixel hitam ≥ jumlah pixel putih, maka posisi pixel tersebut dijadikan
hitam dan set nilai posisi = 1.
3. Bila tidak, maka warna pixel pada posisi tersebut dijadikan putih dan set nilai
posisi = 0.
4. Simpan semua nilai posisi tersebut kedalam sebuah array.
Contoh proses ekstraksi pola adalah sebagai berikut:
Gambar 3.7 Proses Ekstraksi Pola
Algoritma proses ekstraksi pola adalah sebagai berikut:
1. Input citra huruf yang sudah di resize
2. Set Array Input(99), set n = 0
3. Untuk perulangan Y= 0 sampai tinggi_citra-1, lakukan :
a. Untuk perulangan X sampai lebar_citra-1, lakukan :
i. Piksel = piksel(X, Y)
ii. Jika, Temp = R(X,Y) + G(X,Y) + B(X,Y) / 3 >= 150 maka Input(n) =
0. Selain itu Input(n) = 1.
iii. n = n + 1
4. Data_ekstraksi = Join(input(n))
3.8 Proses Algoritma Backpropagation
Algoritma backpropagation digunakan untuk mengenali hasil ekstraksi pola dari
huruf. Proses ini terdiri dari fase pelatihan dan pengujian.
3.8.1 Fase Pelatihan
Fase pelatihan adalah proses dimana setiap ciri atau pola huruf dilatih dan hasil
perhitungan bobot sisimpan ke database untuk digunakan pada fase pengujian.
Secara ringkas, fase pelatihan backpropagation adalah sebagai berikut:
UNIVERSITAS SUMATERA UTARA
40
0. Inisiasi nilai awal
a. Isi nilai bobot (v dan w) dengan nilai acak yang kecil.
b. Tentukan learning rate (α)
c. Set maksimum epoh atau toleransi error. Perulangan akan berhenti bila
epoh mencapai maksimum epoh atau kuadrat error berada dibawah
toleransi error.
1. Tahap Propagasi Maju (Feedforward)
a. Tiap unit masukan menerima sinyal dan meneruskan sinyal tersebut ke
semua unit tersembunyi diatasnya.
b. Hitung semua keluaran di unit tersembunyi (Zj, j=1,2,3,...,p)
n
i
jiijj vxvnetz1
0_
Zj = f(z_netj) = 1
1 +𝑒−𝑧_𝑛𝑒𝑡𝑗
c. Hitung semua keluaran jaringan di unit output (Yk,k=1,2,3,...,m)
p
i
kjjkk wzwnety1
0_
yk=f(y_netk) = 1
1 +𝑒−𝑧_𝑛𝑒𝑡𝑘
2. Propagasi Mundur (Backpropagation)
a. Hitung faktor δ unit keluaran berdasarkan kesalahan di setiap unit
keluaran 𝑦𝑘 (k = 1, 2, … , m).
)_()( kkkk inyfyt (t𝑘 − y𝑘) y𝑘(1 − y𝑘)
δ𝑘 merupakan unit kesalahan yang akan dipakai dalam perubahan bobot
layar dibawahnya. Hitung suku perubahan bobot w𝑘𝑗(yang akan dipakai
nanti untuk merubah bobot w𝑘𝑗) dengan laju percepatan α.
jkkj zW ; k = 1, 2,…, m ; j = 0, 1,…, p
b. Hitung faktor δ unit tersembunyi berdasarkan kesalahan di setiap unit
tersembunyi z𝑗 (j = 1, 2, … , p).
m
k
kjkj wnet1
_
Faktor unit tersembunyi :
)1(_)_(_ jjjjjj zznetnetzfnet
UNIVERSITAS SUMATERA UTARA
41
Hitung suku perubahan bobot 𝑣𝑗𝑖(yang akan dipakai nanti untuk merubah
bobot 𝑣𝑗𝑖).
ijji xv ; j = 1, 2,…, p ; i = 0, 1,…, n
3. Perubahan Bobot
a. Hitung perubahan bobot garis yang menuju ke unit keluaran :
w𝑗𝑘(𝑏𝑎𝑟𝑢) = W𝑗𝑘(𝑙𝑎𝑚𝑎) + Δw𝑗𝑘
(k = 1, 2,…, m ; j = 0, 1,…, p)
b. Hitung perubahan bobot garis yang menuju unit tersembunyi :
v𝑖𝑗(𝑏𝑎𝑟𝑢) = v𝑖𝑗(𝑙𝑎𝑚𝑎) + Δv𝑖𝑗
(j = 1, 2,…, p ; i = 0, 1,…, n)
c. Tes kondisi berhenti, bila epoch mencapai maksimum epoch atau kuadrat
error < target error.
Dengan demikian, untuk setiap epoh (perulangan) akan terjadi hal berikut:
1 Tahap feedforward : update semua nilai neuron, z dan kemudian nilai y.
2 Tahap backpropagation :hitung nilai error w dan v.
3 Tahap updatebobot : ubah nilai bobot garis w dan v.
Hasil perhitungan bobot w dan bobot v akan dihitung dan disimpan kedalam
database untuk digunakan dalam fase pengujian.
Algoritma proses backpropagation terbagi atas 3 proses, yaitu proses inisialisasi
nilai awal, proses pelatihan dan proses pengujian. Sebelum menjalankan proses
pelatihan atau proses pengujian, proses inisialisasi nilai awal harus dijalankan terlebih
dahulu untuk mengisi nilai bias dan nilai awal bobot dengan nilai acak antara -0.5
sampai 0.5.
Nilai awal untuk proses backpropagation di-set secara default sebagai berikut:
1. Set n = 100(banyaknya lapisan input)
2. Set p = 50 (banyaknya lapisan tersembunyi).
3. Set m = 10 (banyaknya lapisan output)
4. Set limit = 0.002
5. Set alpha = 0.2
6. Set MaxEpoh = 1000
a. Algoritma proses inisialisasi awal untuk mengacak bobot
backpropagation adalah sebagai berikut:
UNIVERSITAS SUMATERA UTARA
42
1. Buka recordset pola huruf.
2. Set nData = jumlah record huruf di dalam database.
3. Bentuk array bit inputX(nData, n).
4. Bentuk array bit outputT(nData, m).
5. Untuk i = 1 sampai n Data, lakukan hal berikut:
a. Set Atemp = bit input dari huruf ke-i.
b. Untuk j = 1 sampai 100, set nilai X(i,j) = Atemp(j).
c. Set Atemp = bit output dari huruf ke-i.
d. Untuk k = 1 sampai m, set nilai T(i,k) = Atemp (k).
e. Majukan pointerke record berikutnya.
6. Bentuk array bobot V(n,p).
7. Untuk i = 0 sampai n dan untuk j = 1 sampai p, set V(i,j) = nilai acak dari -
0.5 sampai 0.5.
8. Bentuk array bobot W(p, m).
9. Untuk j = 0 sampai p dan untuk k =1 sampai m, set W(j,k) = nilai acak dari
-0.5 sampai 0.5.
b. Algoritma proses pelatihan metode backpropagation adalah sebagai
berikut:
1. Bentuk array z_in(p)
2. Bentuk array z(p)
3. Bentuk array y_in(m)
4. Bentuk array Y(m)
5. Bentuk array Delta(m)
6. Bentuk array DeltaW(p,m)
7. Bentuk array Delta_in(p)
8. Bentuk array Delta2(p)
9. Bentuk array DeltaV(n, p)
10. Set Epoh =0.
11. Set KuadratError = 1.
12. Set bKuadratError = (KuadratError <= Limit).
13. Selama (Epoh < MaxEpoh) dan Not(bKuadratError), maka lakukan hal
berikut:
a. Set Epoh = Epoh + 1.
UNIVERSITAS SUMATERA UTARA
43
b. Untuk D = 1 sampai nData, lakukan hal berikut:
c. Untuk j = 1 sampai p, lakukan hal berikut:
1. Set nTemp1 = 0
2. Untuk i =1 sampai n, set nTemp1 = nTemp1 + X(D, i) * V(i,j).
3. Set z_in(j) = V(0,j) + Math.Round(nTemp1, 4).
4. Set z(j) = Aktivasi(z_in(j)).
d. Untuk k =1 sampai m, lakukan hal berikut:
1. Set nTemp1 = 0
2. Untuk j =1 sampai p, set nTemp1= nTemp1 + z(j) * W(j,k).
3. Set y_in(k) = W(0, k) + Math.Round(nTemp1, 4).
4. Set Y(k) = Aktivasi(y_in(k)).
e. Untuk k = 1 sampai m, lakukan hal berikut:
1 Set Delta(k) =Math.Round(T(D,k) – Y(k)) * Aktivasi(y_in(k)) * (1-
Aktivasi(y_in(k))), 4).
2 Set KuadratError = Delta(k)^2
3 Set bKuadratError = bKuadratError And (KuadratError <= limit).
f. Untuk j =1 sampai p, lakukan hal berikut:
Untuk k = 1 sampai m, set DeltaW(j , k) = Math.Round(alpha * Delta(k)
* z(j), 4).
g. Untuk k = 1 sampai m, maka set DeltaW(0, k) = Math.Round(alpha *
Delta(k), 4).
h. Untuk j =1 sampai p, lakukan hal berikut:
1. Set nTemp1 = 0
2. Untuk k = 1 sampai m, set nTemp1 = nTemp1 + Delta(k) * W(j,k).
3. Set Delta_in(j) = Math.Round(nTemp1, 4).
4. Set Delta2(j) = Math.Round(Delta_in(j) * Aktivasi(z_in(j)) * (1-
Aktivasi(z_in(j))), 4).
i. Untuk i = 1 sampai n, lakukan hal berikut:
Untuk j = 1 sampai p, set DeltaV(i,j) = alpha * Delta2(j) * X(D,i)
j. Untuk j =1 sampai p, set DeltaV(0,j) = alpha * Delta2(j).
k. Untuk j =1 sampai p, lakukan hal berikut:
Untuk k =1 sampai m, set W(j,k)= W(j,k) + DeltaW(j,k)
l. Untuk i = 1 sampai n, lakukan hal berikut:
UNIVERSITAS SUMATERA UTARA
44
Untuk j = 1 sampai p, set V(i,j) = V(i,j) + DeltaV(i,j)
14. Simpan semua bobot pelatihan W dan V kedalam database.
c. Algoritma proses pengujian metode backpropagation adalah sebagai
berikut:
1. Bentuk array z_in(p).
2. Bentuk arrayz(p).
3. Bentuk array y_in(m).
4. Bentuk arrayY(m).
5. Set X(n) = setiap bit input dari hasil ekstraksi pola yang ingin dikenali.
6. Untuk j = 1 sampai p, lakukan hal berikut:
a. Set nTemp1 = 0.
b. Untuk i = 1 sampai n, set nTemp1 = nTemp1 + X(D,i) * V(i,j).
c. Set z_in(j) = V(0,j) + Math.Round(nTemp1, 4).
d. Set z(j) = Aktivasi (y_in(j)).
7. Untuk k =1 sampai m, lakukan hal berikut:
a. Set nTemp1 = 0.
b. Untuk j = 1 sampai p, set nTemp1 = nTemp1 + z(j) * W(j,k).
c. Set y_in(k) = W(0,k) + Math.Round(nTemp1, 4).
d. Set Y(k) = Aktivasi (y_in(k)).
8. Set sHasil = “”.
9. Set Thress = 0.5.
10. Untuk k = 1 sampai m, lakukan hal berikut:
a. Jika Y(k)>Thres, maka set sHasil = sHasil & “1”.
b. Jika tidak, maka set sHasil = sHasil & “0”
11. Buka recordset dari tabel POLA, untuk memfilter record yang memiliki bit
output = sHasil.
12. Set Backpropagation = ambil nama huruf dari record yang telah terfilter.
Agar lebih jelas mengenai proses pelatihan, perhatikan contoh berikut ini.
Misalnya, huruf hasil ekstraksi ciri yang akan dilatih seperti terlihat pada gambar 3.7
dan 3.8 di bawah ini .
UNIVERSITAS SUMATERA UTARA
45
Hasil eksraksi pola data ke-1
Gambar 3.8 Ekstraksi pola huruf ‘a’
Input ke-1 = “111001011101111”
Output ke-1 = “0001” (output berdasarkan urutan data yang dilatih)
Hasil ekstraksi pola data ke-2
Gambar 3.9 Estraktsi pola Huruf ‘q’
Input ke-2 = “011101101111001”
Output ke-2 = “0010” (output berdasarkan urutan data yang dilatih)
Parameter yang akan digunakan dalam algoritma backpropagation adalah:
1. Banyak lapisan input (n) = 15 (hasil ekstraksi ciri berupa 3 x 5 kotak)
2. Banyak lapisan hidden (p) = 10
3. Banyak lapisan output (m) = 4 (target / output bernilai 4 bit)
4. Alpha = 0.2
5. Masksimum Epoh = 10
Perhitungan pada proses pelatihan huruf a dan q diatas dengan menggunakan
algoritma backpropagation dapat dilihat pada lampiran A-1.
3.8.2 Fase Pengujian
Fase pengujian adalah proses dimana setiap pola huruf dimasukkan ke tahap
feedforward (Propagasi maju) untuk dikenali dan diuji. Tahap feedforward akan
menghasilkan nilai output yk yang bila digabungkan akan merujuk kepada satu huruf
di dalam database. Bobot w dan v untuk tahap feedforward dapat menghasilkan nilai
output yang diinginkan. Sebagai contoh, misalnya dimasukkan hasil ekstraksi ciri
pada gamabr 3.9 berikut untuk dikenali.
UNIVERSITAS SUMATERA UTARA
46
Gambar 3.10 Pola Huruf Yang Akan Dikenali
Hasil ekstraksi ciri dari huruf (huruf a) pada gambar 3.9 adalah
“111001011101111”. Dengan mengambil nilai bobot w dan v pada contoh proses
pelatihan sebelumnya, maka perhitungan pada proses pengujian dengan mengikuti
tahap feedforward dapat dilihat pada lampiran A-2.
UNIVERSITAS SUMATERA UTARA
BAB 4
HASIL DAN PEMBAHASAN
4.1 Pendahuluan
Pada bab ini akan dibahas mengenai hasil yang didapatkan dari pengujian metodologi
yang sudah dibahas pada bab sebelumnya. Adapun yang dibahas antara lain hasil dari
proses pengenalan pola Backpropagation terhadap data citra huruf dengan kondisi
normal dan juga terhadap data citra huruf dengan kondisi terdegradasi, baik yang belum
melewati tahapan restorasi MRF dan yang sudah melewati tahapan restorasi MRF. Dari
hasil tersebut akan didapatkan pembahasan mengenai besaran pengaruh dari restorasi
citra MRF terhadap pengoptimalan akurasi algoritma Backpropagation terhadap
pengenalan pola citra huruf terdegradasi.
4.2 Pengujian Jaringan Saraf Tiruan Backpropagation Pada Citra
Huruf Dengan Pola Yang Mirip/Sama
Adapun proses pelatihan pada jaringan saraf tiruan Backpropagation dilakukan
terhadap 110 data training (citra) dalam kondisi normal, yang datanya didapatkan dari
hasil scan 5 jenis dokumen (hardcopy) menggunakan scanner HP dengan menggunakan
dpi=600. Adapun ke 110 data tersebut meliputi 22 citra huruf (a1 - z1) bersumber dari
dokumen ke-1, 26 citra huruf (a2 - z2) bersumber dari dokumen ke-2, 24 citra huruf (a3
- z3) bersumber dari dokumen ke-3, 12 citra huruf (a4 - z4) bersumber dari dokumen
ke-44, dan 26 citra huruf (z5-a6) bersumber dari dokumen ke-5. Keseluruhan data
training tersebut dilatih dengan learning rate = 0.08, maximum error=0.003 dan
maximum epoch=1000. Jaringan Backpropagation yang dibangun memiliki 100 input
layer, 50 hidden layer, dan 10 output layer.
UNIVERSITAS SUMATERA UTARA
48
Sebelum masuk ke tahapan pengenalan pola Backpropagation, setiap data pada
proses pelatihan maupun pengujian akan melalui tahap pre-processing (noise filtering,
bineri sasi, cropping, resizing, dan ekstraksi pola) terlebih dahulu. Hasil dari tahap pre-
processing yaitu berupa 100 bit biner yang akan digunakan sebagai data input (x1-x100)
ke dalam proses pelatihan ataupun pengujian. 100 bit biner tersebut didapatkan dari
hasil ekstraksi pola citra huruf hasil resizing yang berukuran 10 x 10 pixel. Setiap bit
biner didapatkan dari hasil perbandingan nilai RGB. Jika nilai RGB dari pixel tersebut
adalah R=255, G=255, dan B=255, maka set hasil ekstraksinya adalah ‘0’. Sebaliknya,
jika nilai RGB dari pixel tersebut adalah R=0, G=0 dan B=0, maka set hasil ekstraksinya
adalah ‘1’. Maka didapatkanlah 100 bit biner dari hasil ekstraksi pola keseluruhan pixel
pada citra resizing berukuran 10 x 10 pixel. Dan 10 bit biner untuk output (y1-y10) yang
akan digunakan pada proses pelatihan jaringan, didapatkan dari nomor urut data
pelatihan yang dikonversi menjadi 10 bit biner (misalnya data ke-1 menjadi 000000001,
data ke-2 menjadi 0000000010, dan seterusnya) . Gambaran dari beberapa contoh data
huruf yang akan dilatih dan hasil pre-processing dapat dilihat pada table data training
di bawah ini.
Tabel 4.1 Contoh 26 data training melalui proses pre-processing
No Citra
Huruf
Awal
Pre-processing
(Noise Filtering, Binerisasi, Cropping,
Resizing, Ekstraksi)
Ekstraksi
Pola
(Input
Jaringan)
Output
Jaringan
1
0000000001
2
0000000010
UNIVERSITAS SUMATERA UTARA
49
3
0000000011
4
0000000100
5
0000000101
6
0000000110
7
0000000111
8
0000001000
UNIVERSITAS SUMATERA UTARA
50
9
0000001001
10
0000001010
11
0000001011
12
0000001100
13
0000001101
14
0000001110
UNIVERSITAS SUMATERA UTARA
51
15
0000001111
16
0000010000
17
0000010001
18
0000010010
19
0000010011
20
0000010100
UNIVERSITAS SUMATERA UTARA
52
21
0000010101
22
0000010110
23
0000010111
24
0000011000
25
0000011001
26
0000011010
UNIVERSITAS SUMATERA UTARA
53
Setelah 100 data hasil ekstraksi pola huruf dilatih menggunakan algoritma
Backpropagation, maka akan dilakukan proses pengujian dengan data citra huruf
(kondisi normal) yang mirip dengan data training. Hal ini dilakukan untuk mengetahui
kemampuan algoritma Backpropagation yang sudah dibangun dalam mengenali data
dengan pola yang mirip. Hasil pengujian dengan 100 data dengan pola yang mirip dapat
dilihat pada tabel dibawah ini.
Tabel 4.2 Hasil pengujian algoritma Backpropagation menggunakan pola huruf
yang mirip
No Nama
File
Dikenali / tidak
(Pola Yang Sama)
Hasil
Identifikasi
1 a1 a1
2 b1 b1
3 c1 c1
4 d1 d1
5 e1 e1
6 f1 f1
7 g1 g1
8 h1 h1
9 i1 i1
10 l1 l1
11 m1 z2
12 n1 n1
13 o1 o1
14 p1 p1
15 r1 r1
16 s1 s1
17 t1 t1
18 u1 u1
19 v1 v1
20 w1 w1
21 y1 y1
22 z1 z1
23 a2 a2
24 b2 b2
25 c2 c2
26 d2 d2
27 e2 e2
28 f2 f2
29 g2 g2
30 h2 h2
31 i2 i2
32 j2 j2
33 k2 k2
UNIVERSITAS SUMATERA UTARA
54
34 l2 l2
35 m2 m2
36 n2 n2
37 o2 o2
38 p2 p2
39 q2 q2
40 r2 r2
41 s2 s2
42 t2 t2
43 u2 u2
44 v2 v2
45 w2 w2
46 x2 x2
47 y2 y2
48 z2 z2
49 a3 a3
50 b3 b3
51 c3 c3
52 d3 d3
53 e3 e3
54 f3 f3
55 g3 g3
56 h3 h3
57 j3 j3
58 k3 k3
59 m3 m3
60 n3 n3
61 o3 o3
62 p3 p3
63 q3 q3
64 r3 r3
65 s3 s3
66 t3 t3
67 u3 u3
68 v3 v3
69 w3 w3
70 x3 x3
71 y3 y3
72 z3 z3
73 a4 a4
74 b4 b4
75 c4 c4
76 d4 d4
77 f4 f4
78 g4 g4
79 h4 h4
80 i4 i4
UNIVERSITAS SUMATERA UTARA
55
81 s4 s4
82 t4 t4
83 u4 u4
84 v4 v4
85 a5 a5
86 b5 b5
87 c5 c5
88 d5 d5
89 e5 e5
90 f5 f5
91 g5 g5
92 h5 h5
93 i5 i5
94 j5 j5
95 k5 k5
96 l5 l5
97 m5 m5
98 n5 n5
99 o5 o5
100 p5 p5
101 q5 q5
102 r5 r5
103 s5 s5
104 t5 t5
105 u5 u5
106 v5 v5
107 w5 w5
108 x5 x5
109 y5 y5
110 z5 z5
Akurasi 109 / 110 = 99,09%
Berdasarkan hasil pengujian pada tabel 4.2 di atas, jaringan Backpropagation
yang sudah dibangun mampu mengenali 98 dari 100 data yang mirip pada proses
pengujian. Ini artinya tingkat akurasi yang sudah dibangun untuk mengenali pola yang
mirip mencapai 99%. Setelah jaringan dianggap cukup mampu mengenali pola yang
mirip, selanjutnya akan dilakukan pengujian menggunakan citra huruf terdegradasi.
4.3 Pengujian Jaringan Saraf Tiruan Backpropagation Pada Citra
Huruf Terdegradasi
Setelah dilakukan pelatihan dengan 110 data terhadap jaringan Backpropagation yang
sudah dibangun, selanjutnya dilakukan pengujian terhadap jaringan dalam mengenali
citra huruf terdegradasi. Adapun yang dimaksud dengan citra huruf terdegradasi antara
UNIVERSITAS SUMATERA UTARA
56
lain adalah citra yang warnanya sudah kabur, polanya hilang (cuts), dan ada noise pada
hurufnya (blobs). Adapun citra huruf terdegradasi akan direstorasi dengan tahapan
sebagai berikut:
1. Crop citra huruf terdegadasi.
2. Resize citra huruf terdegradasi menjadi 30 x 30 pixel.
3. Bagi citra huruf terdegradasi menjadi 9 patch (x1-x9), dengan masing-masing
patch berukuran 10 x 10 pixel.
x1 x2 x3
x4
x5
x6
x7 x8 x9
Gambar 4.1 Contoh patch citra huruf terdegradasi
4. Load citra huruf normal dari data learning secara random, resize menjadi 30 x
30 pixel, dan bagi menjadi 9 patch (y1-y9), dengan masing-masing patch
berukuran 10 x 10 pixel.
y1 y2 y3
y4
y5
y6
y7 y8 y9
Gambar 4.2 Contoh patch citra learning
5. Lakukan ekstraksi pola untuk citra terdegradasi dan citra learning, sehingga
masing-masing citra menghasilkan 900 bit biner.
6. Hitung probabilitas (P (x, y)) patch xj terhadap patch yj dengan membandingkan
bit-bit yang terkandung pada masing-masing patch-nya.
7. Hitung nilai MAP (Maximum A Posteriori) terhadap keseluruhan patch.
8. Citra learning dengan nilai MAP tertinggi akan menggantikan (generate) citra
yang terdegradasi. Pada tahapan inilah terjadi restorasi.
UNIVERSITAS SUMATERA UTARA
57
9. Citra hasil restorasi selanjutnya akan digunakan sebagai citra inputan pada
proses pengujian pada jaringan saraf tiruan Backpropagation.
Berikut adalah contoh tampilan proses pengujian menggunakan citra huruf
terdegradasi sebelum dilakukan restorasi MRF.
Gambar 4.3 Contoh tampilan hasil pengujian menggunakan citra huruf terdegradasi
tanpa proses restorasi MRF
Dari hasil pengujian seperti yang ditampilkan pada gambar 4.3, jelas terlihat
bahwa jaringan saraf tiruan Backpropagation yang sudah dibangun tidak mampu
mengenali citra huruf terdegradasi, yang secara kasat mata huruf tersebut adalah huruf
‘e’ tetapi jaringan mengenalinya sebagai huruf ‘t’.
Setelah dilakukan pengujian terhadap citra terdegradasi tanpa melalui proses
restorasi MRF, maka selanjutnya akan dilakukan pengujian setelah melalui proses
restorasi MRF. Contoh tampilan proses pengujian setelah dilakukan restorasi MRF
dapat dilihat pada gambar di bawah ini.
UNIVERSITAS SUMATERA UTARA
58
Gambar 4.4 Contoh tampilan hasil pengujian menggunakan citra huruf
terdegradasi setelah melalui proses restorasi MRF
Dari gambar 4.4, dapat dilihat hasil proses pengujian pada jaringan saraf tiruan
Backpropagation setelah melalui proses restorasi MRF. Dimana citra terdegradasi akan
di-generate oleh citra dari data learning yang memiliki nilai MAP paling tinggi
terhadap citra terdegradasi tersebut. Dimana pada gambar 4.4, nilai MAP paling tinggi
terdapat pada citra huruf ‘e’ yang ada di data learning terhadap citra huruf terdegradasi
(huruf ‘e’) yaitu 0.3541 (pembulatan 4 dibelakang koma).
Adapun proses pengujian terhadap citra huruf terdegradasi secara lengkap dapat
dilihat pada tabel 4.4. Pengujian dilakukan terhadap 24 citra huruf terdegradasi yang
data citranya didapatkan dari jurnal Banerje et. al yang berjudul “Contextual
Restoration of Severely Degraded Document Images”.
UNIVERSITAS SUMATERA UTARA
59
Tabel 4.3 Hasil pengujian pada citra huruf terdegradasi
No Huruf Hasil
Identifikasi
Sebelum
Restorasi
MRF
Dikenali /
Tidak
Dikenali
(Sebelum
Restorasi)
Citra
Hasil
Restorasi
MRF
MAP
(Maximum
A
Posteriori)
Dikenali /
Tidak
Dikenali
(Setelah
Restorasi))
1
0,558
2
0,1023
3
0,3161
4
-
0,3272
5
0,2791
6
0,1192
7
0,4017
8
0,1647
9
0,6093
10
0,301
11
0,3541
12
0,2558
UNIVERSITAS SUMATERA UTARA
60
13
0,1086
14
0,0341
15
0,441
16
0,1369
17
0,2183
18
0,1658
19
0,412
20
0,1606
21
0,0471
22
0,5596
23
0,1906
24
0,0884
UNIVERSITAS SUMATERA UTARA
61
25
0,4181
26
0,3489
27
0,2954
28
0,3051
29
0,4475
30
0,3182
31
0,3155
32
0,3169
33
0,1901
34
-
0,1902
35
0,2153
36
0,1104
UNIVERSITAS SUMATERA UTARA
62
37
0,2755
38
0,0892
39
0,2331
40
0,321
41
0,0568
42
0,1262
43
0,0548
44
0,0431
45
0,3704
46
0,2198
47
0,2942
48
0,395
UNIVERSITAS SUMATERA UTARA
63
49
0,1192
50
0,0553
51
-
0,1954
52
0,0781
53
0,1132
54
0,35
55
0,2063
56
0,1095
57
0,1362
58
0,2154
59
0,0806
60
0,2778
AKURASI
(%) 11 / 60 =
18,33% 47 / 60 =
78,33%
Dari hasil pengujian yang didapatkan pada tabel 4.3, citra huruf terdegradasi
sangat berpengaruh terhadap tingkat akurasi pengenalan pola jaringan saraf tiruan
Backpropagation yang sudah dibangun. Dimana dari 60 huruf yang diuji, hanya 11 yang
UNIVERSITAS SUMATERA UTARA
64
dikenali jika citra huruf terdegradasi tidak melalui proses restorasi MRF terlebih dahulu.
Sedangkan jika melalui proses restorasi MRF dari 60 huruf yang diuji, 47 mampu
dikenali dengan benar. Dari hasil pengujian ini terjadi peningkatan akurasi pengenalan
pola Backpropagation, dimana akurasi pengenalan citra huruf terdegradasi tanpa proses
restorasi MRF hanya 18,33% dan akurasi pengenalan citra huruf terdegradasi setelah
melalui proses restorasi MRF mencapai 78,33%.
4.4 Pembahasan
Berdasarkan proses pengujian di atas didapatkan hasil pengenalan pola
Backpropagation terhadap citra dengan pola huruf yang mirip dengan jumlah data uji
sebanyak 110 data dan menghasilkan tingkat akurasi sebesar 99,09%. Hasil tersebut
dapat tercapai karena jaringan yang sudah dibangun diuji dengan citra huruf dalam
kondisi normal (tanpa degradasi).
Sedangkan pada proses pengujian jaringan saraf tiruan Backpropagation terhadap
60 citra huruf terdegradasi memberikan perbedaan hasil akurasi pengenalan yang cukup
signifikan antara sebelum citra huruf melalui proses restorasi Markov Random Field
(MRF) dan setelah citra huruf melalui proses restorasi Markov Random Field (MRF).
Dari hasil pengujian tersebut diperoleh tingkat akurasi sebesar 18,33% sebelum
dilakukan restorasi dan 78,33% setelah dilakukan restorasi. Adapun pencapaian tingkat
akurasi pengenalan huruf terdegradasi setelah dilakukan restorasi didapatkan karena
proses restorasi Markov Random Field (MRF) mampu mengubah pola citra huruf
terdegradasi menjadi normal kembali. Sehingga tingkat akurasi proses pengenalan pola
citra huruf terdegradasi setelah melalui proses restorasi MRF menjadi lebih tinggi
dibandingkan sebelum melalui melalui proses restorasi MRF.
UNIVERSITAS SUMATERA UTARA
BAB 5
KESIMPULAN DAN SARAN
5.1 Kesimpulan
Berdasarkan hasil penelitian yang sudah diperoleh, maka dapat diambil kesimpulan
bahwa penambahan proses restorasi citra Markov Random Field (MRF) pada tahapan
pre-processsing mampu memberikan pengoptimalan akurasi pengenalan pola
Backpropagation, khususnya terhadap pengenalan pola citra huruf terdegradasi dengan
hasil akurasi pengenalan sebesar 18,33% jika tidak melalui proses restorasi citra MRF
dan 78,33% jika melalui proses restorasi MRF. Sehingga diperoleh peningkatan akurasi
sebesar 60%. Perbedaan tingkat akurasi ini didapatkan karena proses restorasi MRF
relatif mampu mengubah pola huruf terdegradasi menjadi normal kembali. Sehingga
jaringan yang sudah dibangun dengan tingkat akurasi 99,09% dalam mengenali pola
huruf yang sama/kondisi normal, kemungkinan besar akan mampu mengenali setiap
pola huruf yang berhasil direstorasi.
5.2 Saran
Adapun saran yang diperoleh dari penelitian ini, antara lain:
1. Penelitian ini dapat dikembangkan lebih lanjut dengan melakukan pengujian
terhadap data karakter lain seperti angka, karakter khusus (titik, koma, tanda
kutip), simbol atau notasi, huruf tegak bersambung, dan lain-lain.
2. Penelitian ini dapat dikembangkan lebih lanjut dengan melakukan restorasi dan
pengujian secara per-kata atau per-kalimat.
3. Penilitian ini juga dapat dikembangkan lebih lanjut dengan melakukan restorasi
dan pengujian terhadap dokumen-dokumen kuno.
UNIVERSITAS SUMATERA UTARA
66
DAFTAR PUSTAKA
Muharram, A.A., Noaman, K.M.G., Alqubati, I.A.A. 2015. Neural Networks and
Machine Learning for Patter Recognition. ICJA Vol.122: 29-34
Banerjee, J., Namboodiri, A.M., Jahawar, J.V. (2009). Contextual Restoration of
Severaly Degraded Document Images. India: Jurnal IEEE 2009: 517-524.
Sutiyo, T. 2009. Pengolahan Citra Digital. Yogyakarta: Penerbit ANDI.
Gonzales, R.C. & Woods, R.E. 2008. Digital Image Processing 3rd Edition. New
Jersey: Prentice-Hall.
Hermawati, F.A. 2013. Pengolahan Citra Digital. Yogyakarta: Penerbit Andi.
Sahpiro, L. & Stockman, G. 2000. Computer Vision. Washington: Pearson.
Wu, S.G. 2007. A leaf recognition algorithm for plant classification using
probabilistik neural network. IEEE ISSPIT on Computer Science and Electric
Engineering involve Artificial Intelligence and Neurology: 11-16.
Pratt, W.K. 2001. Digital Image Processing 3rd Edition. New York: John Wiley &
Sons, Inc.
Murthy, O.V.R. & Hanmandlu. M. 2011. Zoning based Devanagari Character
Recognition. Jurnal IJCA Vol.27(2): 21-25.
Hussain, E., Hannan, A., Kashyap, K. (2015). A Zoning based Feature Extraction
method for Recognition of Handwriting Assamese Characters. Junal IJCST
Vol.6(2): 226-228.
Bishop, C.M. 2006. Pattern Recognition and Machine Learning. New York: Springer.
Adi, K. & Sukmono, A.B. 2006. Pembangkitan dan Pemulihan Citra Biner Markov
Random Field (MRF) secara Stokastik Dengan Algoritma Markov Chain Monte
Carlo (MCMC). UNDIP: Berkala Fisika.
Fausett, L. 1994. Fundamentals of Neural Networks Architectures, Algorithms, and
Applications. London: Prentice Hall, Inc.
Haykin, S. 2009. Neural Network and Learning Machines 3rd Edition. New Jersey:
Prentice-Hall.
Pratama, B.A., Budi, W.T.A., Nur, R.K., Sthevanie, F. 2015. Mobile OCR Using
Centroid to Boundary and Backpropagation Neural Network. Jurnal IEEE 2015:
364-368.
UNIVERSITAS SUMATERA UTARA
67
Afroge, S., Ahmed, B., Mahmud, F. 2016. Optical Character Recognition using
Backpropagation Neural Network. Jurnal IEEE 2016.
Shareef, A.Q. & Altayar, S.M. 2015. OCR-ANN Back-Propagation Based Classifier.
IJCSMC Vol.4(1): 307-313.
UNIVERSITAS SUMATERA UTARA
A-1
LAMPIRAN
PERHITUNGAN BACKPROPAGATION
1. Lampiran Pelatihan
PENGACAKAN BOBOT V dan W
Pengacakan Nilai Bobot V dari nilai -0.5 sampai 0.5
V(0, 1) = -0.1993
V(0, 2) = 0.2892
V(0, 3) = -0.3074
V(0, 4) = -0.1525
V(0, 5) = 0.0043
V(0, 6) = -0.2146
V(0, 7) = -0.1908
V(0, 8) = 0.343
V(0, 9) = 0.4751
V(0, 10) = -0.3519
V(1, 1) = -0.1873
V(1, 2) = 0.0944
V(1, 3) = -0.2525
V(1, 4) = -0.4389
V(1, 5) = 0.133
V(1, 6) = 0.0888
V(1, 7) = -0.359
V(1, 8) = 0.4811
V(1, 9) = 0.1701
V(1, 10) = -0.0548
V(2, 1) = 0.1007
V(2, 2) = 0.07
V(2, 3) = -0.2629
V(2, 4) = -0.0052
V(2, 5) = -0.3704
V(2, 6) = -0.3854
V(2, 7) = -0.0136
V(2, 8) = 0.0812
V(2, 9) = -0.0765
V(2, 10) = 0.2684
V(3, 1) = 0.2939
V(3, 2) = 0.1378
V(3, 3) = -0.1139
V(3, 4) = 0.2564
V(3, 5) = -0.0044
V(3, 6) = -0.1696
V(3, 7) = 0.4608
V(3, 8) = 0.0442
V(3, 9) = 0.3976
V(3, 10) = -0.3022
V(4, 1) = -0.4146
V(4, 2) = -0.3798
V(4, 3) = 0.4967
V(4, 4) = 0.2659
V(4, 5) = 0.4775
V(4, 6) = 0.2835
V(4, 7) = 0.0647
V(4, 8) = -0.497
V(4, 9) = -0.1033
V(4, 10) = -0.1029
UNIVERSITAS SUMATERA UTARA
A-2
V(5, 1) = -0.2337
V(5, 2) = -0.3787
V(5, 3) = 0.0528
V(5, 4) = -0.4651
V(5, 5) = 0.1596
V(5, 6) = 0.2307
V(5, 7) = 0.0521
V(5, 8) = 0.1978
V(5, 9) = -0.2821
V(5, 10) = -0.1104
V(6, 1) = 0.2991
V(6, 2) = 0.228
V(6, 3) = -0.0805
V(6, 4) = -0.2933
V(6, 5) = -0.1458
V(6, 6) = 0.1749
V(6, 7) = -0.2918
V(6, 8) = -0.0089
V(6, 9) = 0.0655
V(6, 10) = -0.1974
V(7, 1) = 0.1279
V(7, 2) = 0.0968
V(7, 3) = -0.4166
V(7, 4) = -0.0277
V(7, 5) = -0.1403
V(7, 6) = -0.0194
V(7, 7) = 0.0733
V(7, 8) = -0.0288
V(7, 9) = 0.0173
V(7, 10) = -0.1539
V(8, 1) = 0.05
V(8, 2) = -0.0167
V(8, 3) = -0.3156
V(8, 4) = -0.4736
V(8, 5) = 0.0021
V(8, 6) = 0.1726
V(8, 7) = -0.415
V(8, 8) = -0.1488
V(8, 9) = -0.4032
V(8, 10) = 0.2649
V(9, 1) = 0.2783
V(9, 2) = -0.237
V(9, 3) = -0.1737
V(9, 4) = 0.008
V(9, 5) = -0.1013
V(9, 6) = -0.1426
V(9, 7) = 0.2007
V(9, 8) = 0.2899
V(9, 9) = -0.0883
V(9, 10) = -0.1974
V(10, 1) = 0.0753
V(10, 2) = -0.4265
V(10, 3) = -0.0625
V(10, 4) = -0.4059
V(10, 5) = 0.2692
V(10, 6) = 0.1695
UNIVERSITAS SUMATERA UTARA
A-3
V(10, 7) = -0.4621
V(10, 8) = -0.4195
V(10, 9) = 0.1752
V(10, 10) = -0.321
V(11, 1) = -0.3426
V(11, 2) = -0.4191
V(11, 3) = -0.3195
V(11, 4) = 0.3718
V(11, 5) = 0.3397
V(11, 6) = -0.1843
V(11, 7) = 0.0436
V(11, 8) = -0.1069
V(11, 9) = 0.2046
V(11, 10) = 0.1816
V(12, 1) = 0.0899
V(12, 2) = 0.357
V(12, 3) = -0.1056
V(12, 4) = 0.3007
V(12, 5) = 0.0243
V(12, 6) = -0.1351
V(12, 7) = -0.2295
V(12, 8) = 0.0755
V(12, 9) = -0.4264
V(12, 10) = -0.4977
V(13, 1) = 0.2799
V(13, 2) = 0.2834
V(13, 3) = -0.4406
V(13, 4) = -0.2854
V(13, 5) = 0.2709
V(13, 6) = -0.0236
V(13, 7) = -0.4542
V(13, 8) = -0.4097
V(13, 9) = -0.2428
V(13, 10) = 0.3327
V(14, 1) = 0.1347
V(14, 2) = -0.4955
V(14, 3) = 0.1761
V(14, 4) = 0.4177
V(14, 5) = 0.1074
V(14, 6) = 0.1974
V(14, 7) = -0.4175
V(14, 8) = -0.0454
V(14, 9) = 0.1683
V(14, 10) = -0.4171
V(15, 1) = 0.3138
V(15, 2) = -0.1924
V(15, 3) = -0.4146
V(15, 4) = 0.2302
V(15, 5) = 0.2127
V(15, 6) = 0.2182
V(15, 7) = 0.1791
V(15, 8) = 0.1369
V(15, 9) = 0.0698
V(15, 10) = -0.0957
UNIVERSITAS SUMATERA UTARA
A-4
Pengacakan Nilai Bobot W dari nilai -0.5 sampai 0.5
W(0, 1) = -0.101
W(0, 2) = -0.0376
W(0, 3) = -0.4931
W(0, 4) = 0.1728
W(1,1) = -0.1008
W(1,2) = -0.126
W(1,3) = -0.4785
W(1,4) = 0.4659
W(2,1) = -0.3991
W(2,2) = -0.1367
W(2,3) = -0.2301
W(2,4) = -0.0467
W(3,1) = -0.3641
W(3,2) = 0.3719
W(3,3) = -0.4532
W(3,4) = 0.0855
W(4,1) = -0.319
W(4,2) = -0.0234
W(4,3) = -0.3068
W(4,4) = 0.3269
W(5,1) = -0.2176
W(5,2) = 0.3159
W(5,3) = 0.4072
W(5,4) = 0.4907
W(6,1) = -0.3114
W(6,2) = -0.0277
W(6,3) = 0.198
W(6,4) = -0.1708
W(7,1) = 0.002
W(7,2) = -0.4474
W(7,3) = 0.2973
W(7,4) = -0.091
W(8,1) = 0.0205
W(8,2) = 0.3529
W(8,3) = -0.0663
W(8,4) = -0.3277
W(9,1) = 0.4976
W(9,2) = -0.4968
W(9,3) = 0.0186
W(9,4) = -0.2666
W(10,1) = 0.1758
W(10,2) = -0.3834
W(10,3) = -0.1463
W(10,4) = -0.195
EPOH KE = 1
Data ke – 1
Input = “111001011101111”
Output = “0001”
z_in(1) = -0.1993 + 1.7283 = 1.529
z(1) = 0.8219
z_in(2) = 0.2892 + -0.1975 = 0.0917
z(2) = 0.5229
z_in(3) = -0.3074 + -2.0463 = -2.3537
z(3) = 0.0868
z_in(4) = -0.1525 + -0.6893 = -0.8418
UNIVERSITAS SUMATERA UTARA
A-5
z(4) = 0.3012
z_in(5) = 0.0043 + 0.3977 = 0.402
z(5) = 0.5992
z_in(6) = -0.2146 + 0.1651 = -0.0495
z(6) = 0.4876
z_in(7) = -0.1908 + -1.8021 = -1.9929
z(7) = 0.12
z_in(8) = 0.343 + 0.0765 = 0.4195
z(8) = 0.6034
z_in(9) = 0.4751 + -0.1907 = 0.2844
z(9) = 0.5706
z_in(10) = -0.3519 + -1.2173 = -1.5692
z(10) = 0.1723
y_in(1) = -0.101 + -0.3746 = -0.4756
y(1) = 0.3833
y_in(2) = -0.0376 + -0.1643 = -0.2019
y(2) = 0.4497
y_in(3) = -0.4931 + -0.3237 = -0.8168
y(3) = 0.3064
y_in(4) = 0.1728 + 0.2808 = 0.4536
y(4) = 0.6115
Delta(1) = -0.3833 x 0.8219 x 0.6167 = -0.0906
Delta(2) = -0.4497 x 0.5229 x 0.5503 = -0.1113
Delta(3) = -0.3064 x 0.0868 x 0.6936 = -0.0651
Delta(4) = 0.3885 x 0.3012 x 0.3885 = 0.0923
DeltaW(0,1) = 0.2 x -0.0906 = -0.0181
DeltaW(0,2) = 0.2 x -0.1113 = -0.0223
DeltaW(0,3) = 0.2 x -0.0651 = -0.0130
DeltaW(0,4) = 0.2 x 0.0923 = 0.0185
DeltaW(1,1) = 0.2 x -0.0906 x 0.8219 = -0.0149
DeltaW(1,2) = 0.2 x -0.1113 x 0.8219 = -0.0183
DeltaW(1,3) = 0.2 x -0.0651 x 0.8219 = -0.0107
DeltaW(1,4) = 0.2 x 0.0923 x 0.8219 = 0.0152
DeltaW(2,1) = 0.2 x -0.0906 x 0.5229 = -0.0095
DeltaW(2,2) = 0.2 x -0.1113 x 0.5229 = -0.0116
DeltaW(2,3) = 0.2 x -0.0651 x 0.5229 = -0.0068
DeltaW(2,4) = 0.2 x 0.0923 x 0.5229 = 0.0097
DeltaW(3,1) = 0.2 x -0.0906 x 0.0868 = -0.0016
DeltaW(3,2) = 0.2 x -0.1113 x 0.0868 = -0.0019
DeltaW(3,3) = 0.2 x -0.0651 x 0.0868 = -0.0011
DeltaW(3,4) = 0.2 x 0.0923 x 0.0868 = 0.0016
DeltaW(4,1) = 0.2 x -0.0906 x 0.3012 = -0.0055
DeltaW(4,2) = 0.2 x -0.1113 x 0.3012 = -0.0067
DeltaW(4,3) = 0.2 x -0.0651 x 0.3012 = -0.0039
DeltaW(4,4) = 0.2 x 0.0923 x 0.3012 = 0.0056
DeltaW(5,1) = 0.2 x -0.0906 x 0.5992 = -0.0109
DeltaW(5,2) = 0.2 x -0.1113 x 0.5992 = -0.0133
DeltaW(5,3) = 0.2 x -0.0651 x 0.5992 = -0.0078
DeltaW(5,4) = 0.2 x 0.0923 x 0.5992 = 0.0111
DeltaW(6,1) = 0.2 x -0.0906 x 0.4876 = -0.0088
DeltaW(6,2) = 0.2 x -0.1113 x 0.4876 = -0.0109
DeltaW(6,3) = 0.2 x -0.0651 x 0.4876 = -0.0063
DeltaW(6,4) = 0.2 x 0.0923 x 0.4876 = 0.0090
DeltaW(7,1) = 0.2 x -0.0906 x 0.12 = -0.0022
DeltaW(7,2) = 0.2 x -0.1113 x 0.12 = -0.0027
DeltaW(7,3) = 0.2 x -0.0651 x 0.12 = -0.0016
UNIVERSITAS SUMATERA UTARA
A-6
DeltaW(7,4) = 0.2 x 0.0923 x 0.12 = 0.0022
DeltaW(8,1) = 0.2 x -0.0906 x 0.6034 = -0.0109
DeltaW(8,2) = 0.2 x -0.1113 x 0.6034 = -0.0134
DeltaW(8,3) = 0.2 x -0.0651 x 0.6034 = -0.0079
DeltaW(8,4) = 0.2 x 0.0923 x 0.6034 = 0.0111
DeltaW(9,1) = 0.2 x -0.0906 x 0.5706 = -0.0103
DeltaW(9,2) = 0.2 x -0.1113 x 0.5706 = -0.0127
DeltaW(9,3) = 0.2 x -0.0651 x 0.5706 = -0.0074
DeltaW(9,4) = 0.2 x 0.0923 x 0.5706 = 0.0105
DeltaW(10,1) = 0.2 x -0.0906 x 0.1723 = -0.0031
DeltaW(10,2) = 0.2 x -0.1113 x 0.1723 = -0.0038
DeltaW(10,3) = 0.2 x -0.0651 x 0.1723 = -0.0022
DeltaW(10,4) = 0.2 x 0.0923 x 0.1723 = 0.0032
Delta_in(1) = 0.0973
Delta2(1) = 0.0973 x 0.8219 x 0.1781 = 0.0142
Delta_in(2) = 0.062
Delta2(2) = 0.062 x 0.5229 x 0.4771 = 0.0155
Delta_in(3) = 0.029
Delta2(3) = 0.029 x 0.0868 x 0.9132 = 0.0023
Delta_in(4) = 0.0817
Delta2(4) = 0.0817 x 0.3012 x 0.6988 = 0.0172
Delta_in(5) = 0.0033
Delta2(5) = 0.0033 x 0.5992 x 0.4008 = 0.0008
Delta_in(6) = 0.0026
Delta2(6) = 0.0026 x 0.4876 x 0.5124 = 0.0006
Delta_in(7) = 0.0219
Delta2(7) = 0.0219 x 0.12 x 0.88 = 0.0023
Delta_in(8) = -0.0671
Delta2(8) = -0.0671 x 0.6034 x 0.3966 = -0.0161
Delta_in(9) = -0.0156
Delta2(9) = -0.0156 x 0.5706 x 0.4294 = -0.0038
Delta_in(10) = 0.0183
Delta2(10) = 0.0183 x 0.1723 x 0.8277 = 0.0026
DeltaV(0,1) = 0.2 x 0.0142 = 0.00284
DeltaV(0,2) = 0.2 x 0.0155 = 0.00310
DeltaV(0,3) = 0.2 x 0.0023 = 0.00046
DeltaV(0,4) = 0.2 x 0.0172 = 0.00344
DeltaV(0,5) = 0.2 x 0.0008 = 0.00016
DeltaV(0,6) = 0.2 x 0.0006 = 0.00012
DeltaV(0,7) = 0.2 x 0.0023 = 0.00046
DeltaV(0,8) = 0.2 x -0.0161 = -0.00322
DeltaV(0,9) = 0.2 x -0.0038 = -0.00076
DeltaV(0,10) = 0.2 x 0.0026 = 0.00052
DeltaV(1,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(1,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(1,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(1,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(1,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(1,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(1,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(1,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(1,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(1,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(2,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(2,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(2,3) = 0.2 * 0.0023 * 1 = 0.00046
UNIVERSITAS SUMATERA UTARA
A-7
DeltaV(2,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(2,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(2,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(2,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(2,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(2,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(2,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(3,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(3,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(3,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(3,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(3,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(3,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(3,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(3,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(3,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(3,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(4,1) = 0.2 * 0.0142 * 0 = 0.00000
DeltaV(4,2) = 0.2 * 0.0155 * 0 = 0.00000
DeltaV(4,3) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(4,4) = 0.2 * 0.0172 * 0 = 0.00000
DeltaV(4,5) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(4,6) = 0.2 * 0.0006 * 0 = 0.00000
DeltaV(4,7) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(4,8) = 0.2 * -0.0161 * 0 = 0.00000
DeltaV(4,9) = 0.2 * -0.0038 * 0 = 0.00000
DeltaV(4,10) = 0.2 * 0.0026 * 0 = 0.00000
DeltaV(5,1) = 0.2 * 0.0142 * 0 = 0.00000
DeltaV(5,2) = 0.2 * 0.0155 * 0 = 0.00000
DeltaV(5,3) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(5,4) = 0.2 * 0.0172 * 0 = 0.00000
DeltaV(5,5) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(5,6) = 0.2 * 0.0006 * 0 = 0.00000
DeltaV(5,7) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(5,8) = 0.2 * -0.0161 * 0 = 0.00000
DeltaV(5,9) = 0.2 * -0.0038 * 0 = 0.00000
DeltaV(5,10) = 0.2 * 0.0026 * 0 = 0.00000
DeltaV(6,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(6,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(6,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(6,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(6,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(6,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(6,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(6,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(6,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(6,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(7,1) = 0.2 * 0.0142 * 0 = 0.00000
DeltaV(7,2) = 0.2 * 0.0155 * 0 = 0.00000
DeltaV(7,3) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(7,4) = 0.2 * 0.0172 * 0 = 0.00000
DeltaV(7,5) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(7,6) = 0.2 * 0.0006 * 0 = 0.00000
DeltaV(7,7) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(7,8) = 0.2 * -0.0161 * 0 = 0.00000
DeltaV(7,9) = 0.2 * -0.0038 * 0 = 0.00000
UNIVERSITAS SUMATERA UTARA
A-8
DeltaV(7,10) = 0.2 * 0.0026 * 0 = 0.00000
DeltaV(8,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(8,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(8,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(8,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(8,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(8,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(8,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(8,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(8,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(8,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(9,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(9,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(9,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(9,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(9,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(9,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(9,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(9,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(9,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(9,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(10,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(10,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(10,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(10,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(10,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(10,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(10,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(10,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(10,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(10,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(11,1) = 0.2 * 0.0142 * 0 = 0.00000
DeltaV(11,2) = 0.2 * 0.0155 * 0 = 0.00000
DeltaV(11,3) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(11,4) = 0.2 * 0.0172 * 0 = 0.00000
DeltaV(11,5) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(11,6) = 0.2 * 0.0006 * 0 = 0.00000
DeltaV(11,7) = 0.2 * 0.0023 * 0 = 0.00000
DeltaV(11,8) = 0.2 * -0.0161 * 0 = 0.00000
DeltaV(11,9) = 0.2 * -0.0038 * 0 = 0.00000
DeltaV(11,10) = 0.2 * 0.0026 * 0 = 0.00000
DeltaV(12,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(12,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(12,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(12,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(12,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(12,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(12,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(12,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(12,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(12,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(13,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(13,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(13,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(13,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(13,5) = 0.2 * 0.0008 * 1 = 0.00016
UNIVERSITAS SUMATERA UTARA
A-9
DeltaV(13,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(13,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(13,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(13,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(13,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(14,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(14,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(14,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(14,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(14,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(14,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(14,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(14,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(14,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(14,10) = 0.2 * 0.0026 * 1 = 0.00052
DeltaV(15,1) = 0.2 * 0.0142 * 1 = 0.00284
DeltaV(15,2) = 0.2 * 0.0155 * 1 = 0.00310
DeltaV(15,3) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(15,4) = 0.2 * 0.0172 * 1 = 0.00344
DeltaV(15,5) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(15,6) = 0.2 * 0.0006 * 1 = 0.00012
DeltaV(15,7) = 0.2 * 0.0023 * 1 = 0.00046
DeltaV(15,8) = 0.2 * -0.0161 * 1 = -0.00322
DeltaV(15,9) = 0.2 * -0.0038 * 1 = -0.00076
DeltaV(15,10) = 0.2 * 0.0026 * 1 = 0.00052
W(0,1) = -0.1191 + -0.0181 = -0.1191
W(0,2) = -0.0599 + -0.0223 = -0.0599
W(0,3) = -0.5061 + -0.0130 = -0.5061
W(0,4) = 0.1913 + 0.0185 = 0.1913
W(1,1) = -0.1157 + -0.0149 = -0.1157
W(1,2) = -0.1443 + -0.0183 = -0.1443
W(1,3) = -0.4892 + -0.0107 = -0.4892
W(1,4) = 0.4811 + 0.0152 = 0.4811
W(2,1) = -0.4086 + -0.0095 = -0.4086
W(2,2) = -0.1483 + -0.0116 = -0.1483
W(2,3) = -0.2369 + -0.0068 = -0.2369
W(2,4) = -0.037 + 0.0097 = -0.037
W(3,1) = -0.3657 + -0.0016 = -0.3657
W(3,2) = 0.37 + -0.0019 = 0.37
W(3,3) = -0.4543 + -0.0011 = -0.4543
W(3,4) = 0.0871 + 0.0016 = 0.0871
W(4,1) = -0.3245 + -0.0055 = -0.3245
W(4,2) = -0.0301 + -0.0067 = -0.0301
W(4,3) = -0.3107 + -0.0039 = -0.3107
W(4,4) = 0.3325 + 0.0056 = 0.3325
W(5,1) = -0.2285 + -0.0109 = -0.2285
W(5,2) = 0.3026 + -0.0133 = 0.3026
W(5,3) = 0.3994 + -0.0078 = 0.3994
W(5,4) = 0.5018 + 0.0111 = 0.5018
W(6,1) = -0.3202 + -0.0088 = -0.3202
W(6,2) = -0.0386 + -0.0109 = -0.0386
W(6,3) = 0.1917 + -0.0063 = 0.1917
W(6,4) = -0.1618 + 0.0090 = -0.1618
W(7,1) = -0.0002 + -0.0022 = -0.0002
W(7,2) = -0.4501 + -0.0027 = -0.4501
W(7,3) = 0.2957 + -0.0016 = 0.2957
UNIVERSITAS SUMATERA UTARA
A-10
W(7,4) = -0.0888 + 0.0022 = -0.0888
W(8,1) = 0.0096 + -0.0109 = 0.0096
W(8,2) = 0.3395 + -0.0134 = 0.3395
W(8,3) = -0.0742 + -0.0079 = -0.0742
W(8,4) = -0.3166 + 0.0111 = -0.3166
W(9,1) = 0.4873 + -0.0103 = 0.4873
W(9,2) = -0.5095 + -0.0127 = -0.5095
W(9,3) = 0.0112 + -0.0074 = 0.0112
W(9,4) = -0.2561 + 0.0105 = -0.2561
W(10,1) = 0.1727 + -0.0031 = 0.1727
W(10,2) = -0.3872 + -0.0038 = -0.3872
W(10,3) = -0.1485 + -0.0022 = -0.1485
W(10,4) = -0.1918 + 0.0032 = -0.1918
V(0,1) = -0.19646 + 0.00284 = -0.19646
V(0,2) = 0.2923 + 0.00310 = 0.2923
V(0,3) = -0.30694 + 0.00046 = -0.30694
V(0,4) = -0.14906 + 0.00344 = -0.14906
V(0,5) = 0.00446 + 0.00016 = 0.00446
V(0,6) = -0.21448 + 0.00012 = -0.21448
V(0,7) = -0.19034 + 0.00046 = -0.19034
V(0,8) = 0.33978 + -0.00322 = 0.33978
V(0,9) = 0.47434 + -0.00076 = 0.47434
V(0,10) = -0.35138 + 0.00052 = -0.35138
V(1,1) = -0.18446 + 0.00284 = -0.18446
V(1,2) = 0.0975 + 0.00310 = 0.0975
V(1,3) = -0.25204 + 0.00046 = -0.25204
V(1,4) = -0.43546 + 0.00344 = -0.43546
V(1,5) = 0.13316 + 0.00016 = 0.13316
V(1,6) = 0.08892 + 0.00012 = 0.08892
V(1,7) = -0.35854 + 0.00046 = -0.35854
V(1,8) = 0.47788 + -0.00322 = 0.47788
V(1,9) = 0.16934 + -0.00076 = 0.16934
V(1,10) = -0.05428 + 0.00052 = -0.05428
V(2,1) = 0.10354 + 0.00284 = 0.10354
V(2,2) = 0.0731 + 0.00310 = 0.0731
V(2,3) = -0.26244 + 0.00046 = -0.26244
V(2,4) = -0.00176 + 0.00344 = -0.00176
V(2,5) = -0.37024 + 0.00016 = -0.37024
V(2,6) = -0.38528 + 0.00012 = -0.38528
V(2,7) = -0.01314 + 0.00046 = -0.01314
V(2,8) = 0.07798 + -0.00322 = 0.07798
V(2,9) = -0.07726 + -0.00076 = -0.07726
V(2,10) = 0.26892 + 0.00052 = 0.26892
V(3,1) = 0.29674 + 0.00284 = 0.29674
V(3,2) = 0.1409 + 0.00310 = 0.1409
V(3,3) = -0.11344 + 0.00046 = -0.11344
V(3,4) = 0.25984 + 0.00344 = 0.25984
V(3,5) = -0.00424 + 0.00016 = -0.00424
V(3,6) = -0.16948 + 0.00012 = -0.16948
V(3,7) = 0.46126 + 0.00046 = 0.46126
V(3,8) = 0.04098 + -0.00322 = 0.04098
V(3,9) = 0.39684 + -0.00076 = 0.39684
V(3,10) = -0.30168 + 0.00052 = -0.30168
V(4,1) = -0.4146 + 0.00000 = -0.4146
V(4,2) = -0.3798 + 0.00000 = -0.3798
V(4,3) = 0.4967 + 0.00000 = 0.4967
UNIVERSITAS SUMATERA UTARA
A-11
V(4,4) = 0.2659 + 0.00000 = 0.2659
V(4,5) = 0.4775 + 0.00000 = 0.4775
V(4,6) = 0.2835 + 0.00000 = 0.2835
V(4,7) = 0.0647 + 0.00000 = 0.0647
V(4,8) = -0.497 + 0.00000 = -0.497
V(4,9) = -0.1033 + 0.00000 = -0.1033
V(4,10) = -0.1029 + 0.00000 = -0.1029
V(5,1) = -0.2337 + 0.00000 = -0.2337
V(5,2) = -0.3787 + 0.00000 = -0.3787
V(5,3) = 0.0528 + 0.00000 = 0.0528
V(5,4) = -0.4651 + 0.00000 = -0.4651
V(5,5) = 0.1596 + 0.00000 = 0.1596
V(5,6) = 0.2307 + 0.00000 = 0.2307
V(5,7) = 0.0521 + 0.00000 = 0.0521
V(5,8) = 0.1978 + 0.00000 = 0.1978
V(5,9) = -0.2821 + 0.00000 = -0.2821
V(5,10) = -0.1104 + 0.00000 = -0.1104
V(6,1) = 0.30194 + 0.00284 = 0.30194
V(6,2) = 0.2311 + 0.00310 = 0.2311
V(6,3) = -0.08004 + 0.00046 = -0.08004
V(6,4) = -0.28986 + 0.00344 = -0.28986
V(6,5) = -0.14564 + 0.00016 = -0.14564
V(6,6) = 0.17502 + 0.00012 = 0.17502
V(6,7) = -0.29134 + 0.00046 = -0.29134
V(6,8) = -0.01212 + -0.00322 = -0.01212
V(6,9) = 0.06474 + -0.00076 = 0.06474
V(6,10) = -0.19688 + 0.00052 = -0.19688
V(7,1) = 0.1279 + 0.00000 = 0.1279
V(7,2) = 0.0968 + 0.00000 = 0.0968
V(7,3) = -0.4166 + 0.00000 = -0.4166
V(7,4) = -0.0277 + 0.00000 = -0.0277
V(7,5) = -0.1403 + 0.00000 = -0.1403
V(7,6) = -0.0194 + 0.00000 = -0.0194
V(7,7) = 0.0733 + 0.00000 = 0.0733
V(7,8) = -0.0288 + 0.00000 = -0.0288
V(7,9) = 0.0173 + 0.00000 = 0.0173
V(7,10) = -0.1539 + 0.00000 = -0.1539
V(8,1) = 0.05284 + 0.00284 = 0.05284
V(8,2) = -0.0136 + 0.00310 = -0.0136
V(8,3) = -0.31514 + 0.00046 = -0.31514
V(8,4) = -0.47016 + 0.00344 = -0.47016
V(8,5) = 0.00226 + 0.00016 = 0.00226
V(8,6) = 0.17272 + 0.00012 = 0.17272
V(8,7) = -0.41454 + 0.00046 = -0.41454
V(8,8) = -0.15202 + -0.00322 = -0.15202
V(8,9) = -0.40396 + -0.00076 = -0.40396
V(8,10) = 0.26542 + 0.00052 = 0.26542
V(9,1) = 0.28114 + 0.00284 = 0.28114
V(9,2) = -0.2339 + 0.00310 = -0.2339
V(9,3) = -0.17324 + 0.00046 = -0.17324
V(9,4) = 0.01144 + 0.00344 = 0.01144
V(9,5) = -0.10114 + 0.00016 = -0.10114
V(9,6) = -0.14248 + 0.00012 = -0.14248
V(9,7) = 0.20116 + 0.00046 = 0.20116
V(9,8) = 0.28668 + -0.00322 = 0.28668
V(9,9) = -0.08906 + -0.00076 = -0.08906
UNIVERSITAS SUMATERA UTARA
A-12
V(9,10) = -0.19688 + 0.00052 = -0.19688
V(10,1) = 0.07814 + 0.00284 = 0.07814
V(10,2) = -0.4234 + 0.00310 = -0.4234
V(10,3) = -0.06204 + 0.00046 = -0.06204
V(10,4) = -0.40246 + 0.00344 = -0.40246
V(10,5) = 0.26936 + 0.00016 = 0.26936
V(10,6) = 0.16962 + 0.00012 = 0.16962
V(10,7) = -0.46164 + 0.00046 = -0.46164
V(10,8) = -0.42272 + -0.00322 = -0.42272
V(10,9) = 0.17444 + -0.00076 = 0.17444
V(10,10) = -0.32048 + 0.00052 = -0.32048
V(11,1) = -0.3426 + 0.00000 = -0.3426
V(11,2) = -0.4191 + 0.00000 = -0.4191
V(11,3) = -0.3195 + 0.00000 = -0.3195
V(11,4) = 0.3718 + 0.00000 = 0.3718
V(11,5) = 0.3397 + 0.00000 = 0.3397
V(11,6) = -0.1843 + 0.00000 = -0.1843
V(11,7) = 0.0436 + 0.00000 = 0.0436
V(11,8) = -0.1069 + 0.00000 = -0.1069
V(11,9) = 0.2046 + 0.00000 = 0.2046
V(11,10) = 0.1816 + 0.00000 = 0.1816
V(12,1) = 0.09274 + 0.00284 = 0.09274
V(12,2) = 0.3601 + 0.00310 = 0.3601
V(12,3) = -0.10514 + 0.00046 = -0.10514
V(12,4) = 0.30414 + 0.00344 = 0.30414
V(12,5) = 0.02446 + 0.00016 = 0.02446
V(12,6) = -0.13498 + 0.00012 = -0.13498
V(12,7) = -0.22904 + 0.00046 = -0.22904
V(12,8) = 0.07228 + -0.00322 = 0.07228
V(12,9) = -0.42716 + -0.00076 = -0.42716
V(12,10) = -0.49718 + 0.00052 = -0.49718
V(13,1) = 0.28274 + 0.00284 = 0.28274
V(13,2) = 0.2865 + 0.00310 = 0.2865
V(13,3) = -0.44014 + 0.00046 = -0.44014
V(13,4) = -0.28196 + 0.00344 = -0.28196
V(13,5) = 0.27106 + 0.00016 = 0.27106
V(13,6) = -0.02348 + 0.00012 = -0.02348
V(13,7) = -0.45374 + 0.00046 = -0.45374
V(13,8) = -0.41292 + -0.00322 = -0.41292
V(13,9) = -0.24356 + -0.00076 = -0.24356
V(13,10) = 0.33322 + 0.00052 = 0.33322
V(14,1) = 0.13754 + 0.00284 = 0.13754
V(14,2) = -0.4924 + 0.00310 = -0.4924
V(14,3) = 0.17656 + 0.00046 = 0.17656
V(14,4) = 0.42114 + 0.00344 = 0.42114
V(14,5) = 0.10756 + 0.00016 = 0.10756
V(14,6) = 0.19752 + 0.00012 = 0.19752
V(14,7) = -0.41704 + 0.00046 = -0.41704
V(14,8) = -0.04862 + -0.00322 = -0.04862
V(14,9) = 0.16754 + -0.00076 = 0.16754
V(14,10) = -0.41658 + 0.00052 = -0.41658
V(15,1) = 0.31664 + 0.00284 = 0.31664
V(15,2) = -0.1893 + 0.00310 = -0.1893
V(15,3) = -0.41414 + 0.00046 = -0.41414
V(15,4) = 0.23364 + 0.00344 = 0.23364
V(15,5) = 0.21286 + 0.00016 = 0.21286
UNIVERSITAS SUMATERA UTARA
A-13
V(15,6) = 0.21832 + 0.00012 = 0.21832
V(15,7) = 0.17956 + 0.00046 = 0.17956
V(15,8) = 0.13368 + -0.00322 = 0.13368
V(15,9) = 0.06904 + -0.00076 = 0.06904
V(15,10) = -0.09518 + 0.00052 = -0.09518
Data ke-2
Input = “011101101111001”
Output = “0010”
z_in(1) = -0.19646 + 0.8416 = 0.64514
z(1) = 0.6559
z_in(2) = 0.2923 + -0.7435 = -0.4512
z(2) = 0.3891
z_in(3) = -0.30694 + -1.4499 = -1.75684
z(3) = 0.1472
z_in(4) = -0.14906 + 0.725 = 0.57594
z(4) = 0.6401
z_in(5) = 0.00446 + 0.5623 = 0.56676
z(5) = 0.638
z_in(6) = -0.21448 + -0.1895 = -0.40398
z(6) = 0.4004
z_in(7) = -0.19034 + 0.0284 = -0.16194
z(7) = 0.4596
z_in(8) = 0.33978 + -0.4559 = -0.11612
z(8) = 0.471
z_in(9) = 0.47434 + 0.2302 = 0.70454
z(9) = 0.6692
z_in(10) = -0.35138 + -1.4146 = -1.76598
z(10) = 0.146
y_in(1) = -0.1191 + -0.4147 = -0.5338
y(1) = 0.3696
y_in(2) = -0.0599 + -0.384 = -0.4439
y(2) = 0.3908
y_in(3) = -0.5061 + -0.2605 = -0.7666
y(3) = 0.3172
y_in(4) = 0.1913 + 0.3929 = 0.5842
y(4) = 0.642
Delta(1) = -0.3696 x 0.6559 x 0.6304 = -0.0861
Delta(2) = -0.3908 x 0.3891 x 0.6092 = -0.093
Delta(3) = 0.6828 x 0.1472 x 0.6828 = 0.1479
Delta(4) = -0.642 x 0.6401 x 0.358 = -0.1476
DeltaW(0,1) = 0.2 x -0.0861 = -0.0172
DeltaW(0,2) = 0.2 x -0.093 = -0.0186
DeltaW(0,3) = 0.2 x 0.1479 = 0.0296
DeltaW(0,4) = 0.2 x -0.1476 = -0.0295
DeltaW(1,1) = 0.2 x -0.0861 x 0.6559 = -0.0113
DeltaW(1,2) = 0.2 x -0.093 x 0.6559 = -0.0122
DeltaW(1,3) = 0.2 x 0.1479 x 0.6559 = 0.0194
DeltaW(1,4) = 0.2 x -0.1476 x 0.6559 = -0.0194
DeltaW(2,1) = 0.2 x -0.0861 x 0.3891 = -0.0067
DeltaW(2,2) = 0.2 x -0.093 x 0.3891 = -0.0072
DeltaW(2,3) = 0.2 x 0.1479 x 0.3891 = 0.0115
DeltaW(2,4) = 0.2 x -0.1476 x 0.3891 = -0.0115
DeltaW(3,1) = 0.2 x -0.0861 x 0.1472 = -0.0025
DeltaW(3,2) = 0.2 x -0.093 x 0.1472 = -0.0027
DeltaW(3,3) = 0.2 x 0.1479 x 0.1472 = 0.0044
UNIVERSITAS SUMATERA UTARA
A-14
DeltaW(3,4) = 0.2 x -0.1476 x 0.1472 = -0.0043
DeltaW(4,1) = 0.2 x -0.0861 x 0.6401 = -0.0110
DeltaW(4,2) = 0.2 x -0.093 x 0.6401 = -0.0119
DeltaW(4,3) = 0.2 x 0.1479 x 0.6401 = 0.0189
DeltaW(4,4) = 0.2 x -0.1476 x 0.6401 = -0.0189
DeltaW(5,1) = 0.2 x -0.0861 x 0.638 = -0.0110
DeltaW(5,2) = 0.2 x -0.093 x 0.638 = -0.0119
DeltaW(5,3) = 0.2 x 0.1479 x 0.638 = 0.0189
DeltaW(5,4) = 0.2 x -0.1476 x 0.638 = -0.0188
DeltaW(6,1) = 0.2 x -0.0861 x 0.4004 = -0.0069
DeltaW(6,2) = 0.2 x -0.093 x 0.4004 = -0.0074
DeltaW(6,3) = 0.2 x 0.1479 x 0.4004 = 0.0118
DeltaW(6,4) = 0.2 x -0.1476 x 0.4004 = -0.0118
DeltaW(7,1) = 0.2 x -0.0861 x 0.4596 = -0.0079
DeltaW(7,2) = 0.2 x -0.093 x 0.4596 = -0.0085
DeltaW(7,3) = 0.2 x 0.1479 x 0.4596 = 0.0136
DeltaW(7,4) = 0.2 x -0.1476 x 0.4596 = -0.0136
DeltaW(8,1) = 0.2 x -0.0861 x 0.471 = -0.0081
DeltaW(8,2) = 0.2 x -0.093 x 0.471 = -0.0088
DeltaW(8,3) = 0.2 x 0.1479 x 0.471 = 0.0139
DeltaW(8,4) = 0.2 x -0.1476 x 0.471 = -0.0139
DeltaW(9,1) = 0.2 x -0.0861 x 0.6692 = -0.0115
DeltaW(9,2) = 0.2 x -0.093 x 0.6692 = -0.0124
DeltaW(9,3) = 0.2 x 0.1479 x 0.6692 = 0.0198
DeltaW(9,4) = 0.2 x -0.1476 x 0.6692 = -0.0198
DeltaW(10,1) = 0.2 x -0.0861 x 0.146 = -0.0025
DeltaW(10,2) = 0.2 x -0.093 x 0.146 = -0.0027
DeltaW(10,3) = 0.2 x 0.1479 x 0.146 = 0.0043
DeltaW(10,4) = 0.2 x -0.1476 x 0.146 = -0.0043
Delta_in(1) = -0.12
Delta2(1) = -0.12 x 0.6559 x 0.3441 = -0.0271
Delta_in(2) = 0.0194
Delta2(2) = 0.0194 x 0.3891 x 0.6109 = 0.0046
Delta_in(3) = -0.083
Delta2(3) = -0.083 x 0.1472 x 0.8528 = -0.0104
Delta_in(4) = -0.0643
Delta2(4) = -0.0643 x 0.6401 x 0.3599 = -0.0148
Delta_in(5) = -0.0235
Delta2(5) = -0.0235 x 0.638 x 0.362 = -0.0054
Delta_in(6) = 0.0834
Delta2(6) = 0.0834 x 0.4004 x 0.5996 = 0.02
Delta_in(7) = 0.0987
Delta2(7) = 0.0987 x 0.4596 x 0.5404 = 0.0245
Delta_in(8) = 0.0034
Delta2(8) = 0.0034 x 0.471 x 0.529 = 0.0008
Delta_in(9) = 0.0449
Delta2(9) = 0.0449 x 0.6692 x 0.3308 = 0.0099
Delta_in(10) = 0.0275
Delta2(10) = 0.0275 x 0.146 x 0.854 = 0.0034
DeltaV(0,1) = 0.2 x -0.0271 = -0.00542
DeltaV(0,2) = 0.2 x 0.0046 = 0.00092
DeltaV(0,3) = 0.2 x -0.0104 = -0.00208
DeltaV(0,4) = 0.2 x -0.0148 = -0.00296
DeltaV(0,5) = 0.2 x -0.0054 = -0.00108
DeltaV(0,6) = 0.2 x 0.02 = 0.004
DeltaV(0,7) = 0.2 x 0.0245 = 0.00490
UNIVERSITAS SUMATERA UTARA
A-15
DeltaV(0,8) = 0.2 x 0.0008 = 0.00016
DeltaV(0,9) = 0.2 x 0.0099 = 0.00198
DeltaV(0,10) = 0.2 x 0.0034 = 0.00068
DeltaV(1,1) = 0.2 * -0.0271 * 0 = 0.00000
DeltaV(1,2) = 0.2 * 0.0046 * 0 = 0.00000
DeltaV(1,3) = 0.2 * -0.0104 * 0 = 0.00000
DeltaV(1,4) = 0.2 * -0.0148 * 0 = 0.00000
DeltaV(1,5) = 0.2 * -0.0054 * 0 = 0.00000
DeltaV(1,6) = 0.2 * 0.02 * 0 = 0.000
DeltaV(1,7) = 0.2 * 0.0245 * 0 = 0.00000
DeltaV(1,8) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(1,9) = 0.2 * 0.0099 * 0 = 0.00000
DeltaV(1,10) = 0.2 * 0.0034 * 0 = 0.00000
DeltaV(2,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(2,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(2,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(2,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(2,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(2,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(2,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(2,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(2,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(2,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(3,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(3,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(3,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(3,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(3,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(3,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(3,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(3,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(3,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(3,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(4,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(4,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(4,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(4,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(4,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(4,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(4,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(4,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(4,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(4,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(5,1) = 0.2 * -0.0271 * 0 = 0.00000
DeltaV(5,2) = 0.2 * 0.0046 * 0 = 0.00000
DeltaV(5,3) = 0.2 * -0.0104 * 0 = 0.00000
DeltaV(5,4) = 0.2 * -0.0148 * 0 = 0.00000
DeltaV(5,5) = 0.2 * -0.0054 * 0 = 0.00000
DeltaV(5,6) = 0.2 * 0.02 * 0 = 0.000
DeltaV(5,7) = 0.2 * 0.0245 * 0 = 0.00000
DeltaV(5,8) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(5,9) = 0.2 * 0.0099 * 0 = 0.00000
DeltaV(5,10) = 0.2 * 0.0034 * 0 = 0.00000
DeltaV(6,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(6,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(6,3) = 0.2 * -0.0104 * 1 = -0.00208
UNIVERSITAS SUMATERA UTARA
A-16
DeltaV(6,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(6,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(6,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(6,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(6,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(6,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(6,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(7,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(7,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(7,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(7,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(7,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(7,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(7,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(7,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(7,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(7,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(8,1) = 0.2 * -0.0271 * 0 = 0.00000
DeltaV(8,2) = 0.2 * 0.0046 * 0 = 0.00000
DeltaV(8,3) = 0.2 * -0.0104 * 0 = 0.00000
DeltaV(8,4) = 0.2 * -0.0148 * 0 = 0.00000
DeltaV(8,5) = 0.2 * -0.0054 * 0 = 0.00000
DeltaV(8,6) = 0.2 * 0.02 * 0 = 0.000
DeltaV(8,7) = 0.2 * 0.0245 * 0 = 0.00000
DeltaV(8,8) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(8,9) = 0.2 * 0.0099 * 0 = 0.00000
DeltaV(8,10) = 0.2 * 0.0034 * 0 = 0.00000
DeltaV(9,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(9,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(9,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(9,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(9,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(9,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(9,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(9,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(9,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(9,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(10,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(10,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(10,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(10,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(10,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(10,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(10,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(10,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(10,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(10,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(11,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(11,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(11,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(11,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(11,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(11,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(11,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(11,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(11,9) = 0.2 * 0.0099 * 1 = 0.00198
UNIVERSITAS SUMATERA UTARA
A-17
DeltaV(11,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(12,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(12,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(12,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(12,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(12,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(12,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(12,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(12,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(12,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(12,10) = 0.2 * 0.0034 * 1 = 0.00068
DeltaV(13,1) = 0.2 * -0.0271 * 0 = 0.00000
DeltaV(13,2) = 0.2 * 0.0046 * 0 = 0.00000
DeltaV(13,3) = 0.2 * -0.0104 * 0 = 0.00000
DeltaV(13,4) = 0.2 * -0.0148 * 0 = 0.00000
DeltaV(13,5) = 0.2 * -0.0054 * 0 = 0.00000
DeltaV(13,6) = 0.2 * 0.02 * 0 = 0.000
DeltaV(13,7) = 0.2 * 0.0245 * 0 = 0.00000
DeltaV(13,8) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(13,9) = 0.2 * 0.0099 * 0 = 0.00000
DeltaV(13,10) = 0.2 * 0.0034 * 0 = 0.00000
DeltaV(14,1) = 0.2 * -0.0271 * 0 = 0.00000
DeltaV(14,2) = 0.2 * 0.0046 * 0 = 0.00000
DeltaV(14,3) = 0.2 * -0.0104 * 0 = 0.00000
DeltaV(14,4) = 0.2 * -0.0148 * 0 = 0.00000
DeltaV(14,5) = 0.2 * -0.0054 * 0 = 0.00000
DeltaV(14,6) = 0.2 * 0.02 * 0 = 0.000
DeltaV(14,7) = 0.2 * 0.0245 * 0 = 0.00000
DeltaV(14,8) = 0.2 * 0.0008 * 0 = 0.00000
DeltaV(14,9) = 0.2 * 0.0099 * 0 = 0.00000
DeltaV(14,10) = 0.2 * 0.0034 * 0 = 0.00000
DeltaV(15,1) = 0.2 * -0.0271 * 1 = -0.00542
DeltaV(15,2) = 0.2 * 0.0046 * 1 = 0.00092
DeltaV(15,3) = 0.2 * -0.0104 * 1 = -0.00208
DeltaV(15,4) = 0.2 * -0.0148 * 1 = -0.00296
DeltaV(15,5) = 0.2 * -0.0054 * 1 = -0.00108
DeltaV(15,6) = 0.2 * 0.02 * 1 = 0.004
DeltaV(15,7) = 0.2 * 0.0245 * 1 = 0.00490
DeltaV(15,8) = 0.2 * 0.0008 * 1 = 0.00016
DeltaV(15,9) = 0.2 * 0.0099 * 1 = 0.00198
DeltaV(15,10) = 0.2 * 0.0034 * 1 = 0.00068
W(0,1) = -0.1363 + -0.0172 = -0.1363
W(0,2) = -0.0785 + -0.0186 = -0.0785
W(0,3) = -0.4765 + 0.0296 = -0.4765
W(0,4) = 0.1618 + -0.0295 = 0.1618
W(1,1) = -0.127 + -0.0113 = -0.127
W(1,2) = -0.1565 + -0.0122 = -0.1565
W(1,3) = -0.4698 + 0.0194 = -0.4698
W(1,4) = 0.4617 + -0.0194 = 0.4617
W(2,1) = -0.4153 + -0.0067 = -0.4153
W(2,2) = -0.1555 + -0.0072 = -0.1555
W(2,3) = -0.2254 + 0.0115 = -0.2254
W(2,4) = -0.0485 + -0.0115 = -0.0485
W(3,1) = -0.3682 + -0.0025 = -0.3682
W(3,2) = 0.3673 + -0.0027 = 0.3673
W(3,3) = -0.4499 + 0.0044 = -0.4499
UNIVERSITAS SUMATERA UTARA
A-18
W(3,4) = 0.0828 + -0.0043 = 0.0828
W(4,1) = -0.3355 + -0.0110 = -0.3355
W(4,2) = -0.042 + -0.0119 = -0.042
W(4,3) = -0.2918 + 0.0189 = -0.2918
W(4,4) = 0.3136 + -0.0189 = 0.3136
W(5,1) = -0.2395 + -0.0110 = -0.2395
W(5,2) = 0.2907 + -0.0119 = 0.2907
W(5,3) = 0.4183 + 0.0189 = 0.4183
W(5,4) = 0.483 + -0.0188 = 0.483
W(6,1) = -0.3271 + -0.0069 = -0.3271
W(6,2) = -0.046 + -0.0074 = -0.046
W(6,3) = 0.2035 + 0.0118 = 0.2035
W(6,4) = -0.1736 + -0.0118 = -0.1736
W(7,1) = -0.0081 + -0.0079 = -0.0081
W(7,2) = -0.4586 + -0.0085 = -0.4586
W(7,3) = 0.3093 + 0.0136 = 0.3093
W(7,4) = -0.1024 + -0.0136 = -0.1024
W(8,1) = 0.0015 + -0.0081 = 0.0015
W(8,2) = 0.3307 + -0.0088 = 0.3307
W(8,3) = -0.0603 + 0.0139 = -0.0603
W(8,4) = -0.3305 + -0.0139 = -0.3305
W(9,1) = 0.4758 + -0.0115 = 0.4758
W(9,2) = -0.5219 + -0.0124 = -0.5219
W(9,3) = 0.031 + 0.0198 = 0.031
W(9,4) = -0.2759 + -0.0198 = -0.2759
W(10,1) = 0.1702 + -0.0025 = 0.1702
W(10,2) = -0.3899 + -0.0027 = -0.3899
W(10,3) = -0.1442 + 0.0043 = -0.1442
W(10,4) = -0.1961 + -0.0043 = -0.1961
V(0,1) = -0.20188 + -0.00542 = -0.20188
V(0,2) = 0.29322 + 0.00092 = 0.29322
V(0,3) = -0.30902 + -0.00208 = -0.30902
V(0,4) = -0.15202 + -0.00296 = -0.15202
V(0,5) = 0.00338 + -0.00108 = 0.00338
V(0,6) = -0.21048 + 0.004 = -0.21048
V(0,7) = -0.18544 + 0.00490 = -0.18544
V(0,8) = 0.33994 + 0.00016 = 0.33994
V(0,9) = 0.47632 + 0.00198 = 0.47632
V(0,10) = -0.3507 + 0.00068 = -0.3507
V(1,1) = -0.18446 + 0.00000 = -0.18446
V(1,2) = 0.0975 + 0.00000 = 0.0975
V(1,3) = -0.25204 + 0.00000 = -0.25204
V(1,4) = -0.43546 + 0.00000 = -0.43546
V(1,5) = 0.13316 + 0.00000 = 0.13316
V(1,6) = 0.08892 + 0.000 = 0.08892
V(1,7) = -0.35854 + 0.00000 = -0.35854
V(1,8) = 0.47788 + 0.00000 = 0.47788
V(1,9) = 0.16934 + 0.00000 = 0.16934
V(1,10) = -0.05428 + 0.00000 = -0.05428
V(2,1) = 0.09812 + -0.00542 = 0.09812
V(2,2) = 0.07402 + 0.00092 = 0.07402
V(2,3) = -0.26452 + -0.00208 = -0.26452
V(2,4) = -0.00472 + -0.00296 = -0.00472
V(2,5) = -0.37132 + -0.00108 = -0.37132
V(2,6) = -0.38128 + 0.004 = -0.38128
V(2,7) = -0.00824 + 0.00490 = -0.00824
UNIVERSITAS SUMATERA UTARA
A-19
V(2,8) = 0.07814 + 0.00016 = 0.07814
V(2,9) = -0.07528 + 0.00198 = -0.07528
V(2,10) = 0.2696 + 0.00068 = 0.2696
V(3,1) = 0.29132 + -0.00542 = 0.29132
V(3,2) = 0.14182 + 0.00092 = 0.14182
V(3,3) = -0.11552 + -0.00208 = -0.11552
V(3,4) = 0.25688 + -0.00296 = 0.25688
V(3,5) = -0.00532 + -0.00108 = -0.00532
V(3,6) = -0.16548 + 0.004 = -0.16548
V(3,7) = 0.46616 + 0.00490 = 0.46616
V(3,8) = 0.04114 + 0.00016 = 0.04114
V(3,9) = 0.39882 + 0.00198 = 0.39882
V(3,10) = -0.301 + 0.00068 = -0.301
V(4,1) = -0.42002 + -0.00542 = -0.42002
V(4,2) = -0.37888 + 0.00092 = -0.37888
V(4,3) = 0.49462 + -0.00208 = 0.49462
V(4,4) = 0.26294 + -0.00296 = 0.26294
V(4,5) = 0.47642 + -0.00108 = 0.47642
V(4,6) = 0.2875 + 0.004 = 0.2875
V(4,7) = 0.0696 + 0.00490 = 0.0696
V(4,8) = -0.49684 + 0.00016 = -0.49684
V(4,9) = -0.10132 + 0.00198 = -0.10132
V(4,10) = -0.10222 + 0.00068 = -0.10222
V(5,1) = -0.2337 + 0.00000 = -0.2337
V(5,2) = -0.3787 + 0.00000 = -0.3787
V(5,3) = 0.0528 + 0.00000 = 0.0528
V(5,4) = -0.4651 + 0.00000 = -0.4651
V(5,5) = 0.1596 + 0.00000 = 0.1596
V(5,6) = 0.2307 + 0.000 = 0.2307
V(5,7) = 0.0521 + 0.00000 = 0.0521
V(5,8) = 0.1978 + 0.00000 = 0.1978
V(5,9) = -0.2821 + 0.00000 = -0.2821
V(5,10) = -0.1104 + 0.00000 = -0.1104
V(6,1) = 0.29652 + -0.00542 = 0.29652
V(6,2) = 0.23202 + 0.00092 = 0.23202
V(6,3) = -0.08212 + -0.00208 = -0.08212
V(6,4) = -0.29282 + -0.00296 = -0.29282
V(6,5) = -0.14672 + -0.00108 = -0.14672
V(6,6) = 0.17902 + 0.004 = 0.17902
V(6,7) = -0.28644 + 0.00490 = -0.28644
V(6,8) = -0.01196 + 0.00016 = -0.01196
V(6,9) = 0.06672 + 0.00198 = 0.06672
V(6,10) = -0.1962 + 0.00068 = -0.1962
V(7,1) = 0.12248 + -0.00542 = 0.12248
V(7,2) = 0.09772 + 0.00092 = 0.09772
V(7,3) = -0.41868 + -0.00208 = -0.41868
V(7,4) = -0.03066 + -0.00296 = -0.03066
V(7,5) = -0.14138 + -0.00108 = -0.14138
V(7,6) = -0.0154 + 0.004 = -0.0154
V(7,7) = 0.0782 + 0.00490 = 0.0782
V(7,8) = -0.02864 + 0.00016 = -0.02864
V(7,9) = 0.01928 + 0.00198 = 0.01928
V(7,10) = -0.15322 + 0.00068 = -0.15322
V(8,1) = 0.05284 + 0.00000 = 0.05284
V(8,2) = -0.0136 + 0.00000 = -0.0136
V(8,3) = -0.31514 + 0.00000 = -0.31514
UNIVERSITAS SUMATERA UTARA
A-20
V(8,4) = -0.47016 + 0.00000 = -0.47016
V(8,5) = 0.00226 + 0.00000 = 0.00226
V(8,6) = 0.17272 + 0.000 = 0.17272
V(8,7) = -0.41454 + 0.00000 = -0.41454
V(8,8) = -0.15202 + 0.00000 = -0.15202
V(8,9) = -0.40396 + 0.00000 = -0.40396
V(8,10) = 0.26542 + 0.00000 = 0.26542
V(9,1) = 0.27572 + -0.00542 = 0.27572
V(9,2) = -0.23298 + 0.00092 = -0.23298
V(9,3) = -0.17532 + -0.00208 = -0.17532
V(9,4) = 0.00848 + -0.00296 = 0.00848
V(9,5) = -0.10222 + -0.00108 = -0.10222
V(9,6) = -0.13848 + 0.004 = -0.13848
V(9,7) = 0.20606 + 0.00490 = 0.20606
V(9,8) = 0.28684 + 0.00016 = 0.28684
V(9,9) = -0.08708 + 0.00198 = -0.08708
V(9,10) = -0.1962 + 0.00068 = -0.1962
V(10,1) = 0.07272 + -0.00542 = 0.07272
V(10,2) = -0.42248 + 0.00092 = -0.42248
V(10,3) = -0.06412 + -0.00208 = -0.06412
V(10,4) = -0.40542 + -0.00296 = -0.40542
V(10,5) = 0.26828 + -0.00108 = 0.26828
V(10,6) = 0.17362 + 0.004 = 0.17362
V(10,7) = -0.45674 + 0.00490 = -0.45674
V(10,8) = -0.42256 + 0.00016 = -0.42256
V(10,9) = 0.17642 + 0.00198 = 0.17642
V(10,10) = -0.3198 + 0.00068 = -0.3198
V(11,1) = -0.34802 + -0.00542 = -0.34802
V(11,2) = -0.41818 + 0.00092 = -0.41818
V(11,3) = -0.32158 + -0.00208 = -0.32158
V(11,4) = 0.36884 + -0.00296 = 0.36884
V(11,5) = 0.33862 + -0.00108 = 0.33862
V(11,6) = -0.1803 + 0.004 = -0.1803
V(11,7) = 0.0485 + 0.00490 = 0.0485
V(11,8) = -0.10674 + 0.00016 = -0.10674
V(11,9) = 0.20658 + 0.00198 = 0.20658
V(11,10) = 0.18228 + 0.00068 = 0.18228
V(12,1) = 0.08732 + -0.00542 = 0.08732
V(12,2) = 0.36102 + 0.00092 = 0.36102
V(12,3) = -0.10722 + -0.00208 = -0.10722
V(12,4) = 0.30118 + -0.00296 = 0.30118
V(12,5) = 0.02338 + -0.00108 = 0.02338
V(12,6) = -0.13098 + 0.004 = -0.13098
V(12,7) = -0.22414 + 0.00490 = -0.22414
V(12,8) = 0.07244 + 0.00016 = 0.07244
V(12,9) = -0.42518 + 0.00198 = -0.42518
V(12,10) = -0.4965 + 0.00068 = -0.4965
V(13,1) = 0.28274 + 0.00000 = 0.28274
V(13,2) = 0.2865 + 0.00000 = 0.2865
V(13,3) = -0.44014 + 0.00000 = -0.44014
V(13,4) = -0.28196 + 0.00000 = -0.28196
V(13,5) = 0.27106 + 0.00000 = 0.27106
V(13,6) = -0.02348 + 0.000 = -0.02348
V(13,7) = -0.45374 + 0.00000 = -0.45374
V(13,8) = -0.41292 + 0.00000 = -0.41292
V(13,9) = -0.24356 + 0.00000 = -0.24356
UNIVERSITAS SUMATERA UTARA
A-21
V(13,10) = 0.33322 + 0.00000 = 0.33322
V(14,1) = 0.13754 + 0.00000 = 0.13754
V(14,2) = -0.4924 + 0.00000 = -0.4924
V(14,3) = 0.17656 + 0.00000 = 0.17656
V(14,4) = 0.42114 + 0.00000 = 0.42114
V(14,5) = 0.10756 + 0.00000 = 0.10756
V(14,6) = 0.19752 + 0.000 = 0.19752
V(14,7) = -0.41704 + 0.00000 = -0.41704
V(14,8) = -0.04862 + 0.00000 = -0.04862
V(14,9) = 0.16754 + 0.00000 = 0.16754
V(14,10) = -0.41658 + 0.00000 = -0.41658
V(15,1) = 0.31122 + -0.00542 = 0.31122
V(15,2) = -0.18838 + 0.00092 = -0.18838
V(15,3) = -0.41622 + -0.00208 = -0.41622
V(15,4) = 0.23068 + -0.00296 = 0.23068
V(15,5) = 0.21178 + -0.00108 = 0.21178
V(15,6) = 0.22232 + 0.004 = 0.22232
V(15,7) = 0.18446 + 0.00490 = 0.18446
V(15,8) = 0.13384 + 0.00016 = 0.13384
V(15,9) = 0.07102 + 0.00198 = 0.07102
V(15,10) = -0.0945 + 0.00068 = -0.0945
Proses pelatihan terus berulang dari epoh 2 sampai epoh ke-25,
sehingga didapatkan bobot baru akhir sebagai berikut :
W(0,1) = -0.4712 + -0.0032 = -0.4712
W(0,2) = -0.4453 + -0.0026 = -0.4453
W(0,3) = -0.3146 + 0.0220 = -0.3146
W(0,4) = 0.0609999999999999 + -0.0231 = 0.0609999999999999
W(1,1) = -0.3629 + -0.0016 = -0.3629
W(1,2) = -0.4211 + -0.0012 = -0.4211
W(1,3) = -0.4923 + 0.0107 = -0.4923
W(1,4) = 0.5361 + -0.0112 = 0.5361
W(2,1) = -0.5888 + -0.0016 = -0.5888
W(2,2) = -0.3495 + -0.0013 = -0.3495
W(2,3) = -0.23 + 0.0108 = -0.23
W(2,4) = -0.00700000000000002 + -0.0114 = -0.00700000000000002
W(3,1) = -0.4044 + -0.0004 = -0.4044
W(3,2) = 0.3291 + -0.0003 = 0.3291
W(3,3) = -0.4063 + 0.0026 = -0.4063
W(3,4) = 0.0448 + -0.0027 = 0.0448
W(4,1) = -0.5 + -0.0021 = -0.5
W(4,2) = -0.2137 + -0.0017 = -0.2137
W(4,3) = -0.0556000000000001 + 0.0145 = -0.0556000000000001
W(4,4) = 0.0970000000000001 + -0.0152 = 0.0970000000000001
W(5,1) = -0.4492 + -0.0021 = -0.4492
W(5,2) = 0.0617000000000001 + -0.0017 = 0.0617000000000001
W(5,3) = 0.5391 + 0.0147 = 0.5391
W(5,4) = 0.399 + -0.0154 = 0.399
W(6,1) = -0.4983 + -0.0019 = -0.4983
W(6,2) = -0.2344 + -0.0015 = -0.2344
W(6,3) = 0.2606 + 0.0127 = 0.2606
W(6,4) = -0.1977 + -0.0134 = -0.1977
W(7,1) = -0.1299 + -0.0023 = -0.1299
W(7,2) = -0.5801 + -0.0018 = -0.5801
W(7,3) = 0.6043 + 0.0156 = 0.6043
W(7,4) = -0.3907 + -0.0163 = -0.3907
W(8,1) = -0.1701 + -0.0015 = -0.1701
UNIVERSITAS SUMATERA UTARA
A-22
W(8,2) = 0.1404 + -0.0012 = 0.1404
W(8,3) = -0.0257 + 0.0105 = -0.0257
W(8,4) = -0.3302 + -0.0110 = -0.3302
W(9,1) = 0.2603 + -0.0024 = 0.2603
W(9,2) = -0.7542 + -0.0019 = -0.7542
W(9,3) = 0.2056 + 0.0164 = 0.2056
W(9,4) = -0.4157 + -0.0172 = -0.4157
W(10,1) = 0.1135 + -0.0005 = 0.1135
W(10,2) = -0.4526 + -0.0004 = -0.4526
W(10,3) = -0.1319 + 0.0036 = -0.1319
W(10,4) = -0.1973 + -0.0038 = -0.1973
V(0,1) = -0.24334 + -0.00536 = -0.24334
V(0,2) = 0.34308 + -0.00066 = 0.34308
V(0,3) = -0.32614 + -0.0010 = -0.32614
V(0,4) = -0.12648 + -0.00046 = -0.12648
V(0,5) = 0.01782 + 0.00072 = 0.01782
V(0,6) = -0.1541 + 0.00290 = -0.1541
V(0,7) = -0.10018 + 0.00488 = -0.10018
V(0,8) = 0.3291 + 0.00168 = 0.3291
V(0,9) = 0.4975 + 0.00276 = 0.4975
V(0,10) = -0.33728 + 0.00032 = -0.33728
V(1,1) = -0.10126 + 0.00000 = -0.10126
V(1,2) = 0.1471 + 0.00000 = 0.1471
V(1,3) = -0.23556 + 0.0000 = -0.23556
V(1,4) = -0.37542 + 0.00000 = -0.37542
V(1,5) = 0.1362 + 0.00000 = 0.1362
V(1,6) = 0.05964 + 0.00000 = 0.05964
V(1,7) = -0.39286 + 0.00000 = -0.39286
V(1,8) = 0.42794 + 0.00000 = 0.42794
V(1,9) = 0.12494 + 0.00000 = 0.12494
V(1,10) = -0.05144 + 0.00000 = -0.05144
V(2,1) = 0.05666 + -0.00536 = 0.05666
V(2,2) = 0.12388 + -0.00066 = 0.12388
V(2,3) = -0.28164 + -0.0010 = -0.28164
V(2,4) = 0.02082 + -0.00046 = 0.02082
V(2,5) = -0.35688 + 0.00072 = -0.35688
V(2,6) = -0.3249 + 0.00290 = -0.3249
V(2,7) = 0.07702 + 0.00488 = 0.07702
V(2,8) = 0.0673 + 0.00168 = 0.0673
V(2,9) = -0.0541 + 0.00276 = -0.0541
V(2,10) = 0.28302 + 0.00032 = 0.28302
V(3,1) = 0.24986 + -0.00536 = 0.24986
V(3,2) = 0.19168 + -0.00066 = 0.19168
V(3,3) = -0.13264 + -0.0010 = -0.13264
V(3,4) = 0.28242 + -0.00046 = 0.28242
V(3,5) = 0.00912 + 0.00072 = 0.00912
V(3,6) = -0.1091 + 0.00290 = -0.1091
V(3,7) = 0.55142 + 0.00488 = 0.55142
V(3,8) = 0.0303 + 0.00168 = 0.0303
V(3,9) = 0.42 + 0.00276 = 0.42
V(3,10) = -0.28758 + 0.00032 = -0.28758
V(4,1) = -0.54468 + -0.00536 = -0.54468
V(4,2) = -0.37862 + -0.00066 = -0.37862
V(4,3) = 0.46102 + -0.0010 = 0.46102
V(4,4) = 0.22844 + -0.00046 = 0.22844
V(4,5) = 0.48782 + 0.00072 = 0.48782
UNIVERSITAS SUMATERA UTARA
A-23
V(4,6) = 0.37316 + 0.00290 = 0.37316
V(4,7) = 0.18918 + 0.00488 = 0.18918
V(4,8) = -0.45774 + 0.00168 = -0.45774
V(4,9) = -0.0357400000000001 + 0.00276 = -0.0357400000000001
V(4,10) = -0.09164 + 0.00032 = -0.09164
V(5,1) = -0.2337 + 0.00000 = -0.2337
V(5,2) = -0.3787 + 0.00000 = -0.3787
V(5,3) = 0.0528 + 0.0000 = 0.0528
V(5,4) = -0.4651 + 0.00000 = -0.4651
V(5,5) = 0.1596 + 0.00000 = 0.1596
V(5,6) = 0.2307 + 0.00000 = 0.2307
V(5,7) = 0.0521 + 0.00000 = 0.0521
V(5,8) = 0.1978 + 0.00000 = 0.1978
V(5,9) = -0.2821 + 0.00000 = -0.2821
V(5,10) = -0.1104 + 0.00000 = -0.1104
V(6,1) = 0.25506 + -0.00536 = 0.25506
V(6,2) = 0.28188 + -0.00066 = 0.28188
V(6,3) = -0.09924 + -0.0010 = -0.09924
V(6,4) = -0.26728 + -0.00046 = -0.26728
V(6,5) = -0.13228 + 0.00072 = -0.13228
V(6,6) = 0.2354 + 0.00290 = 0.2354
V(6,7) = -0.20118 + 0.00488 = -0.20118
V(6,8) = -0.0228 + 0.00168 = -0.0228
V(6,9) = 0.0879 + 0.00276 = 0.0879
V(6,10) = -0.18278 + 0.00032 = -0.18278
V(7,1) = -0.00217999999999996 + -0.00536 = -0.00217999999999996
V(7,2) = 0.09798 + -0.00066 = 0.09798
V(7,3) = -0.45228 + -0.0010 = -0.45228
V(7,4) = -0.06516 + -0.00046 = -0.06516
V(7,5) = -0.12998 + 0.00072 = -0.12998
V(7,6) = 0.07026 + 0.00290 = 0.07026
V(7,7) = 0.19778 + 0.00488 = 0.19778
V(7,8) = 0.01046 + 0.00168 = 0.01046
V(7,9) = 0.08486 + 0.00276 = 0.08486
V(7,10) = -0.14264 + 0.00032 = -0.14264
V(8,1) = 0.13604 + 0.00000 = 0.13604
V(8,2) = 0.036 + 0.00000 = 0.036
V(8,3) = -0.29866 + 0.0000 = -0.29866
V(8,4) = -0.41012 + 0.00000 = -0.41012
V(8,5) = 0.0053 + 0.00000 = 0.0053
V(8,6) = 0.14344 + 0.00000 = 0.14344
V(8,7) = -0.44886 + 0.00000 = -0.44886
V(8,8) = -0.20196 + 0.00000 = -0.20196
V(8,9) = -0.44836 + 0.00000 = -0.44836
V(8,10) = 0.26826 + 0.00000 = 0.26826
V(9,1) = 0.23426 + -0.00536 = 0.23426
V(9,2) = -0.18312 + -0.00066 = -0.18312
V(9,3) = -0.19244 + -0.0010 = -0.19244
V(9,4) = 0.03402 + -0.00046 = 0.03402
V(9,5) = -0.08778 + 0.00072 = -0.08778
V(9,6) = -0.0821 + 0.00290 = -0.0821
V(9,7) = 0.29132 + 0.00488 = 0.29132
V(9,8) = 0.276 + 0.00168 = 0.276
V(9,9) = -0.0659 + 0.00276 = -0.0659
V(9,10) = -0.18278 + 0.00032 = -0.18278
V(10,1) = 0.03126 + -0.00536 = 0.03126
UNIVERSITAS SUMATERA UTARA
A-24
V(10,2) = -0.37262 + -0.00066 = -0.37262
V(10,3) = -0.08124 + -0.0010 = -0.08124
V(10,4) = -0.37988 + -0.00046 = -0.37988
V(10,5) = 0.28272 + 0.00072 = 0.28272
V(10,6) = 0.23 + 0.00290 = 0.23
V(10,7) = -0.37148 + 0.00488 = -0.37148
V(10,8) = -0.4334 + 0.00168 = -0.4334
V(10,9) = 0.1976 + 0.00276 = 0.1976
V(10,10) = -0.30638 + 0.00032 = -0.30638
V(11,1) = -0.47268 + -0.00536 = -0.47268
V(11,2) = -0.41792 + -0.00066 = -0.41792
V(11,3) = -0.35518 + -0.0010 = -0.35518
V(11,4) = 0.33434 + -0.00046 = 0.33434
V(11,5) = 0.35002 + 0.00072 = 0.35002
V(11,6) = -0.09464 + 0.00290 = -0.09464
V(11,7) = 0.16808 + 0.00488 = 0.16808
V(11,8) = -0.06764 + 0.00168 = -0.06764
V(11,9) = 0.27216 + 0.00276 = 0.27216
V(11,10) = 0.19286 + 0.00032 = 0.19286
V(12,1) = 0.04586 + -0.00536 = 0.04586
V(12,2) = 0.41088 + -0.00066 = 0.41088
V(12,3) = -0.12434 + -0.0010 = -0.12434
V(12,4) = 0.32672 + -0.00046 = 0.32672
V(12,5) = 0.03782 + 0.00072 = 0.03782
V(12,6) = -0.0746 + 0.00290 = -0.0746
V(12,7) = -0.13888 + 0.00488 = -0.13888
V(12,8) = 0.0616 + 0.00168 = 0.0616
V(12,9) = -0.404 + 0.00276 = -0.404
V(12,10) = -0.48308 + 0.00032 = -0.48308
V(13,1) = 0.36594 + 0.00000 = 0.36594
V(13,2) = 0.3361 + 0.00000 = 0.3361
V(13,3) = -0.42366 + 0.0000 = -0.42366
V(13,4) = -0.22192 + 0.00000 = -0.22192
V(13,5) = 0.2741 + 0.00000 = 0.2741
V(13,6) = -0.05276 + 0.00000 = -0.05276
V(13,7) = -0.48806 + 0.00000 = -0.48806
V(13,8) = -0.46286 + 0.00000 = -0.46286
V(13,9) = -0.28796 + 0.00000 = -0.28796
V(13,10) = 0.33606 + 0.00000 = 0.33606
V(14,1) = 0.22074 + 0.00000 = 0.22074
V(14,2) = -0.4428 + 0.00000 = -0.4428
V(14,3) = 0.19304 + 0.0000 = 0.19304
V(14,4) = 0.48118 + 0.00000 = 0.48118
V(14,5) = 0.1106 + 0.00000 = 0.1106
V(14,6) = 0.16824 + 0.00000 = 0.16824
V(14,7) = -0.45136 + 0.00000 = -0.45136
V(14,8) = -0.09856 + 0.00000 = -0.09856
V(14,9) = 0.12314 + 0.00000 = 0.12314
V(14,10) = -0.41374 + 0.00000 = -0.41374
V(15,1) = 0.26976 + -0.00536 = 0.26976
V(15,2) = -0.13852 + -0.00066 = -0.13852
V(15,3) = -0.43334 + -0.0010 = -0.43334
V(15,4) = 0.25622 + -0.00046 = 0.25622
V(15,5) = 0.22622 + 0.00072 = 0.22622
V(15,6) = 0.2787 + 0.00290 = 0.2787
V(15,7) = 0.26972 + 0.00488 = 0.26972
UNIVERSITAS SUMATERA UTARA
A-25
2. Lampiran Pengujian
Data Input = "111001011101111"
ntemp = -0.10126 + 1 x -0.10126
ntemp = -0.0446 + 1 x 0.05666
ntemp = 0.20526 + 1 x 0.24986
ntemp = 0.20526 + 0 x -0.54468
ntemp = 0.20526 + 0 x -0.2337
ntemp = 0.46032 + 1 x 0.25506
ntemp = 0.46032 + 0 x -0.00217999999999996
ntemp = 0.59636 + 1 x 0.13604
ntemp = 0.83062 + 1 x 0.23426
ntemp = 0.86188 + 1 x 0.03126
ntemp = 0.86188 + 0 x -0.47268
ntemp = 0.90774 + 1 x 0.04586
ntemp = 1.27368 + 1 x 0.36594
ntemp = 1.49442 + 1 x 0.22074
ntemp = 1.76418 + 1 x 0.26976
z_in(1) = -0.24334 + 1.7642 = 1.52086
z(1) = 0.8207
ntemp = 0.1471 + 1 x 0.1471
ntemp = 0.27098 + 1 x 0.12388
ntemp = 0.46266 + 1 x 0.19168
ntemp = 0.46266 + 0 x -0.37862
ntemp = 0.46266 + 0 x -0.3787
ntemp = 0.74454 + 1 x 0.28188
ntemp = 0.74454 + 0 x 0.09798
ntemp = 0.78054 + 1 x 0.036
ntemp = 0.59742 + 1 x -0.18312
ntemp = 0.2248 + 1 x -0.37262
ntemp = 0.2248 + 0 x -0.41792
ntemp = 0.63568 + 1 x 0.41088
ntemp = 0.97178 + 1 x 0.3361
ntemp = 0.52898 + 1 x -0.4428
ntemp = 0.39046 + 1 x -0.13852
z_in(2) = 0.34308 + 0.3905 = 0.73358
z(2) = 0.6756
ntemp = -0.23556 + 1 x -0.23556
ntemp = -0.5172 + 1 x -0.28164
ntemp = -0.64984 + 1 x -0.13264
ntemp = -0.64984 + 0 x 0.46102
ntemp = -0.64984 + 0 x 0.0528
ntemp = -0.74908 + 1 x -0.09924
ntemp = -0.74908 + 0 x -0.45228
ntemp = -1.04774 + 1 x -0.29866
ntemp = -1.24018 + 1 x -0.19244
ntemp = -1.32142 + 1 x -0.08124
ntemp = -1.32142 + 0 x -0.35518
ntemp = -1.44576 + 1 x -0.12434
V(15,8) = 0.123 + 0.00168 = 0.123
V(15,9) = 0.0922 + 0.00276 = 0.0922
V(15,10) = -0.08108 + 0.00032 = -0.08108
Nilai akhir bobot V dan W akan disimpan ke dalam database untuk
digunakan dalam fase pungujian.
UNIVERSITAS SUMATERA UTARA
A-26
ntemp = -1.86942 + 1 x -0.42366
ntemp = -1.67638 + 1 x 0.19304
ntemp = -2.10972 + 1 x -0.43334
z_in(3) = -0.32614 + -2.1097 = -2.43584
z(3) = 0.0805
ntemp = -0.37542 + 1 x -0.37542
ntemp = -0.3546 + 1 x 0.02082
ntemp = -0.07218 + 1 x 0.28242
ntemp = -0.07218 + 0 x 0.22844
ntemp = -0.07218 + 0 x -0.4651
ntemp = -0.33946 + 1 x -0.26728
ntemp = -0.33946 + 0 x -0.06516
ntemp = -0.74958 + 1 x -0.41012
ntemp = -0.71556 + 1 x 0.03402
ntemp = -1.09544 + 1 x -0.37988
ntemp = -1.09544 + 0 x 0.33434
ntemp = -0.76872 + 1 x 0.32672
ntemp = -0.99064 + 1 x -0.22192
ntemp = -0.50946 + 1 x 0.48118
ntemp = -0.25324 + 1 x 0.25622
z_in(4) = -0.12648 + -0.2532 = -0.37968
z(4) = 0.4062
ntemp = 0.1362 + 1 x 0.1362
ntemp = -0.22068 + 1 x -0.35688
ntemp = -0.21156 + 1 x 0.00912
ntemp = -0.21156 + 0 x 0.48782
ntemp = -0.21156 + 0 x 0.1596
ntemp = -0.34384 + 1 x -0.13228
ntemp = -0.34384 + 0 x -0.12998
ntemp = -0.33854 + 1 x 0.0053
ntemp = -0.42632 + 1 x -0.08778
ntemp = -0.1436 + 1 x 0.28272
ntemp = -0.1436 + 0 x 0.35002
ntemp = -0.10578 + 1 x 0.03782
ntemp = 0.16832 + 1 x 0.2741
ntemp = 0.27892 + 1 x 0.1106
ntemp = 0.50514 + 1 x 0.22622
z_in(5) = 0.01782 + 0.5051 = 0.52292
z(5) = 0.6278
ntemp = 0.05964 + 1 x 0.05964
ntemp = -0.26526 + 1 x -0.3249
ntemp = -0.37436 + 1 x -0.1091
ntemp = -0.37436 + 0 x 0.37316
ntemp = -0.37436 + 0 x 0.2307
ntemp = -0.13896 + 1 x 0.2354
ntemp = -0.13896 + 0 x 0.07026
ntemp = 0.00447999999999998 + 1 x 0.14344
ntemp = -0.07762 + 1 x -0.0821
ntemp = 0.15238 + 1 x 0.23
ntemp = 0.15238 + 0 x -0.09464
ntemp = 0.07778 + 1 x -0.0746
ntemp = 0.02502 + 1 x -0.05276
ntemp = 0.19326 + 1 x 0.16824
ntemp = 0.47196 + 1 x 0.2787
z_in(6) = -0.1541 + 0.472 = 0.3179
z(6) = 0.5788
UNIVERSITAS SUMATERA UTARA
A-27
ntemp = -0.39286 + 1 x -0.39286
ntemp = -0.31584 + 1 x 0.07702
ntemp = 0.23558 + 1 x 0.55142
ntemp = 0.23558 + 0 x 0.18918
ntemp = 0.23558 + 0 x 0.0521
ntemp = 0.0344 + 1 x -0.20118
ntemp = 0.0344 + 0 x 0.19778
ntemp = -0.41446 + 1 x -0.44886
ntemp = -0.12314 + 1 x 0.29132
ntemp = -0.49462 + 1 x -0.37148
ntemp = -0.49462 + 0 x 0.16808
ntemp = -0.6335 + 1 x -0.13888
ntemp = -1.12156 + 1 x -0.48806
ntemp = -1.57292 + 1 x -0.45136
ntemp = -1.3032 + 1 x 0.26972
z_in(7) = -0.10018 + -1.3032 = -1.40338
z(7) = 0.1973
ntemp = 0.42794 + 1 x 0.42794
ntemp = 0.49524 + 1 x 0.0673
ntemp = 0.52554 + 1 x 0.0303
ntemp = 0.52554 + 0 x -0.45774
ntemp = 0.52554 + 0 x 0.1978
ntemp = 0.50274 + 1 x -0.0228
ntemp = 0.50274 + 0 x 0.01046
ntemp = 0.30078 + 1 x -0.20196
ntemp = 0.57678 + 1 x 0.276
ntemp = 0.14338 + 1 x -0.4334
ntemp = 0.14338 + 0 x -0.06764
ntemp = 0.20498 + 1 x 0.0616
ntemp = -0.25788 + 1 x -0.46286
ntemp = -0.35644 + 1 x -0.09856
ntemp = -0.23344 + 1 x 0.123
z_in(8) = 0.3291 + -0.2334 = 0.0957
z(8) = 0.5239
ntemp = 0.12494 + 1 x 0.12494
ntemp = 0.07084 + 1 x -0.0541
ntemp = 0.49084 + 1 x 0.42
ntemp = 0.49084 + 0 x -0.0357400000000001
ntemp = 0.49084 + 0 x -0.2821
ntemp = 0.57874 + 1 x 0.0879
ntemp = 0.57874 + 0 x 0.08486
ntemp = 0.13038 + 1 x -0.44836
ntemp = 0.0644799999999999 + 1 x -0.0659
ntemp = 0.26208 + 1 x 0.1976
ntemp = 0.26208 + 0 x 0.27216
ntemp = -0.14192 + 1 x -0.404
ntemp = -0.42988 + 1 x -0.28796
ntemp = -0.30674 + 1 x 0.12314
ntemp = -0.21454 + 1 x 0.0922
z_in(9) = 0.4975 + -0.2145 = 0.283
z(9) = 0.5703
ntemp = -0.05144 + 1 x -0.05144
ntemp = 0.23158 + 1 x 0.28302
ntemp = -0.056 + 1 x -0.28758
ntemp = -0.056 + 0 x -0.09164
ntemp = -0.056 + 0 x -0.1104
UNIVERSITAS SUMATERA UTARA
A-28
ntemp = -0.23878 + 1 x -0.18278
ntemp = -0.23878 + 0 x -0.14264
ntemp = 0.02948 + 1 x 0.26826
ntemp = -0.1533 + 1 x -0.18278
ntemp = -0.45968 + 1 x -0.30638
ntemp = -0.45968 + 0 x 0.19286
ntemp = -0.94276 + 1 x -0.48308
ntemp = -0.6067 + 1 x 0.33606
ntemp = -1.02044 + 1 x -0.41374
ntemp = -1.10152 + 1 x -0.08108
z_in(10) = -0.33728 + -1.1015 = -1.43878
z(10) = 0.1917
ntemp = -0.29783203 + 0.8207 x -0.3629
ntemp = -0.69562531 + 0.6756 x -0.5888
ntemp = -0.72817951 + 0.0805 x -0.4044
ntemp = -0.93127951 + 0.4062 x -0.5
ntemp = -1.21328727 + 0.6278 x -0.4492
ntemp = -1.50170331 + 0.5788 x -0.4983
ntemp = -1.52733258 + 0.1973 x -0.1299
ntemp = -1.61644797 + 0.5239 x -0.1701
ntemp = -1.46799888 + 0.5703 x 0.2603
ntemp = -1.44624093 + 0.1917 x 0.1135
y_in(1) = -0.4712 + -1.4462 = -1.9174
y(1) = 0.1282
ntemp = -0.34559677 + 0.8207 x -0.4211
ntemp = -0.58171897 + 0.6756 x -0.3495
ntemp = -0.55522642 + 0.0805 x 0.3291
ntemp = -0.64203136 + 0.4062 x -0.2137
ntemp = -0.6032961 + 0.6278 x 0.0617000000000001
ntemp = -0.73896682 + 0.5788 x -0.2344
ntemp = -0.85342055 + 0.1973 x -0.5801
ntemp = -0.77986499 + 0.5239 x 0.1404
ntemp = -1.20998525 + 0.5703 x -0.7542
ntemp = -1.29674867 + 0.1917 x -0.4526
y_in(2) = -0.4453 + -1.2967 = -1.742
y(2) = 0.1491
ntemp = -0.40403061 + 0.8207 x -0.4923
ntemp = -0.55941861 + 0.6756 x -0.23
ntemp = -0.59212576 + 0.0805 x -0.4063
ntemp = -0.61471048 + 0.4062 x -0.0556000000000001
ntemp = -0.2762635 + 0.6278 x 0.5391
ntemp = -0.12542822 + 0.5788 x 0.2606
ntemp = -0.00619983000000007 + 0.1973 x 0.6043
ntemp = -0.0196640600000001 + 0.5239 x -0.0257
ntemp = 0.0975896199999999 + 0.5703 x 0.2056
ntemp = 0.0723043899999999 + 0.1917 x -0.1319
y_in(3) = -0.3146 + 0.0723 = -0.2423
y(3) = 0.4397
ntemp = 0.43997727 + 0.8207 x 0.5361
ntemp = 0.43524807 + 0.6756 x -0.00700000000000002
ntemp = 0.43885447 + 0.0805 x 0.0448
ntemp = 0.47825587 + 0.4062 x 0.0970000000000001
ntemp = 0.72874807 + 0.6278 x 0.399
ntemp = 0.61431931 + 0.5788 x -0.1977
ntemp = 0.5372342 + 0.1973 x -0.3907
ntemp = 0.36424242 + 0.5239 x -0.3302
UNIVERSITAS SUMATERA UTARA
A-29
ntemp = 0.12716871 + 0.5703 x -0.4157
ntemp = 0.0893463 + 0.1917 x -0.1973
y_in(4) = 0.0609999999999999 + 0.0893 = 0.1503
y(4) = 0.5375
Diambil nilai batas = 0.5
y(1) = 0.1282 < 0.5 --> dibulatkan menjadi 0
y(2) = 0.1491 < 0.5 --> dibulatkan menjadi 0
y(3) = 0.4397 < 0.5 --> dibulatkan menjadi 0
y(4) = 0.5375 ≥ 0.5 --> dibulatkan menjadi 1
Hasil = 0001
Pada contoh di atas, bit output yang dihasilkan adalah nilai
y(1), y(2), y(3), dan y(4). Sehingga huruf yang ditunjuk adalah
huruf yang memiliki target / bit output = 0001, huruf yang
memiliki bit output 0001 adalah huruf “a“ sesuai gambar 3.18.
Dengan demikian, huruf “a“ pada contoh proses perhitungan
backpropagation ini dapat dikenali dengan baik.
UNIVERSITAS SUMATERA UTARA