APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI …1. Memberikan alternatif lain untuk memprediksi...
-
Upload
duongthuan -
Category
Documents
-
view
220 -
download
0
Transcript of APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI …1. Memberikan alternatif lain untuk memprediksi...
0
APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PRESTASI SISWA SMU
DENGAN METODE BACKPROPAGATION
SKRIPSI
Diajukan Kepada Fakultas Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta Untuk Memenuhi Syarat Memperoleh Gelar Sarjana
Disusun Oleh:
FITRIA YUNANTI NIM : 04610018
PROGRAM STUDI MATEMATIKA FAKULTAS SAINS DAN TEKNOLOGI
UNIVERSITAS ISLAM NEGERI SUNAN KALIJAGA YOGYAKARTA
2010
ii
iii
iv
1
������������������������ ����������������� ���������������������������� ���������������������������� ���������������������������� ���������������������������������������������������������������������������������������������������������������������������������������������������������������������������������� �������������� �������������� �������������� ������������������������� ������������������� ������������������� ������������������� �����
���������������������������������������������������������������������������������������������������������������������� � !"�������� � !"�������� � !"�������� � !"������
#����������������������������� ���������������� ���������#����������������������������� ���������������� ���������#����������������������������� ���������������� ���������#����������������������������� ���������������� ���������
����������������������������������������������������������������������������������������������������������������������������������������������������������������������������������$��%��%��&�������$��%��%��&�������$��%��%��&�������$��%��%��&���������
��������
��������������������������������������������������������������������������������������������������������������������������������������������������������������������������������� ������������������� ������������������� ������������������� ������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������������
�'���� �(���%�)����%����'���� �(���%�)����%����'���� �(���%�)����%����'���� �(���%�)����%�������
2
�������� �������� �������� �������� �����
*������ ��� � ����� ����� ������� ���� � +(,*������ ��� � ����� ����� ������� ���� � +(,*������ ��� � ����� ����� ������� ���� � +(,*������ ��� � ����� ����� ������� ���� � +(,���� #�������#�������#�������#�������
�������� ��������������������� ��������������������� ��������������������� �������������������������������������������������
����������-��������������������-��������������������-��������������������-���������������������������������������������������������� ����������������������������������������������������������������������������������������������������������������
������ ������������� ������������� ������������� �����������,����,����,����,���������������������������������� �.��������������������������������� �.��������������������������������� �.��������������������������������� �.�������
+���������,���%�%���/-$�+�������������01�+���������,���%�%���/-$�+�������������01�+���������,���%�%���/-$�+�������������01�+���������,���%�%���/-$�+�������������01� ���� ��������� ��������� ��������� ��������������� �%�������� �%�������� �%�������� �%��
�2�2�2�2����3� �% �3� �% �3� �% �3� �% �����
����
����
����
����
����
����
����
����
����
����
����
����
����
����
����
3
KATA PENGANTAR
Puji syukur kehadirat Allah SWT yang telah memberikan rahmatNya
kepada penulis, sehingga penulis dapat menyelesaikan skripsi yang berjudul :
Aplikasi Jaringan Syaraf Tiruan Untuk Memprediksi Prestasi Siswa SMU
Dengan Metode Backpropagation.
Penulis sadar tanpa bantuan dari berbagai pihak, skripsi ini tidak akan
terlaksana dengan baik. Oleh karena itu, pada kesempatan ini penulis dengan
ketulusan hati mengucapkan terimakasih atas dukungan, bimbingan, dan
bantuannya baik secara moral maupun spiritual kepada:
1. Prof. Dr. HM. Amin Abdullah selaku Rektor Universitas Islam Negeri
Sunan Kalijaga Yogyakarta.
2. Ibu Dra. Maizer Said Nahdi, M.Si. selaku Dekan Fakultas Sains dan
Teknologi Universitas Islam Negeri Sunan kalijaga Yogyakarta yang telah
memberikan ijin penelitian.
3. Ibu Sri Utami Zuliana,S.Si, M.Sc. selaku Kaprodi Matematika Fakultas
Sains dan Teknologi Universitas Islam Negeri Sunan Kalijaga Yogyakarta
sekaligus sebagai Pembimbing yang dengan sabar memberi pengarahan,
bimbingan dan petunjuk selama melakukan penelitian.
4. Bapak Akhmad Fauzy, Ph.D. selaku Pembimbing yang telah memberikan
pengarahan selama melakukan penelitian.
5. Para Staf Pengajar Fakultas Sains dan Teknologi Universitas Islam Negeri
Sunan Kalijaga Yogyakarta, yang telah banyak memberilkan ilmu
pengetahuan dan wawasan yang tak ternilai harganya.
4
6. Bapak Kepala Sekolah SMU N 1 WERU SUKOHARJO yang telah
memberikan ijin untuk melakukan penelitian di sekolah yang dipimpinnya.
7. Kedua orang tuaku dan semua keluargaku tercinta yang tak henti-hentinya
mendo’akan dan memberikan dorongan kepada penulis.
8. Mas Heri Pramono yang sudah memberikan nasehat, motivasi, semangat
dan selalu meluangkan waktu untuk penulis sehingga penulis bisa
menyalesaikan skripsi ini dengan sebaik-baiknya.
9. Teman-temanku Prodi Matematika, teman-teman kos Az-Zahrah, dan
semua pihak yang tidak dapat disebutkan satu per satu, yang telah ikut
memberikan bantuan dan sumbangan dalam pelaksanaan penelitian dan
penulisan skripsi ini.
Harapan penulis semoga segala arahan, dorongan pengorbanan dan
nasehat yang telah diberikan kapada penulis menjadi amal yang shaleh dan
diridhoi Allah SWT. Penulis menyadari bahwa penelitian ini masih banyak
kekurangannya. Oleh sebab itu, segala bentuk saran dan kritik yang sifatnya
membangun demi lebih baiknya penelitian sangat diharapkan.
Akhirnya penulis berharap dan berdo’a semoga skripsi ini bermanfaat bagi
diri paneliti dan pembaca semuanya. Amin.
Yogyakarta, 4 Januari 2010 Penulis
Fitria yunanti NIM :04610018
5
DAFTAR ISI
HALAMAN JUDUL ………………………………………………………… i
HALAMAM PENGESAHAN ………………………………………………. ii
HALAMAN PERNYATAAN ………………………………………………. iii
HALAMAN MOTTO………………………………………………………… iv
PERSEMBAHAN ……………………………………………………………. v
KATA PENGANTAR ……………………………………………………….. vi
DAFTAR ISI…………………………………………………………………. viii
DAFTAR GAMBAR…………………………………………………………. x
DAFTAR LAMPIRAN ……………………………………………………… xi
ABSTRAK …………………………………………………………………… xii
BAB I. PENDAHULUAN ………………………………………………… 1
A. Latar belakang Masalah ………………………………………… 1
B. Perumusan Masalah …………………………………………….. 3
C. Batasan masalah ………………………………………………… 3
D. Tujuan Penelitian ……………………………………………….. 4
E. Manfaat Penelitian ……………………………………………... 4
F. Sistematika Pembahasan ……………………………………….. 5
BABII. TINJAUAN PUSTAKA…………………………………………… 6
A. TINJAUAN PUSTAKA ………………………………………. 6
1. Dasar-Dasar Matematika …………………………………… 7
1.1. Vektor …………………………………………………. 7
6
1.2. Matriks ……………………………………………..... 10
2. Dasar-dasar Statistika …………………………………….. 13
BAB III. METODE PENELITIAN ……………………………………….. 15
BAB IV. HASIL PENELITIAN DAN PEMBAHASAN ………………… 17
A. HASIL PENELITIAN ……………………………………….. 17
1. Backpropagation …………………………………………. 19
2. Istilah-istilah yang digunakan pada jaringan syaraf
tiruan backpropagation …………………………………. 21
3. Arsitektur jaringan syaraf tiruan backpropagation ….. 23
4. Langkah-langkah algoritma backpropagation ………... 24
5. Proses pelatihan …………………………………………. 26
6. Matlab ……………………………………………………. 26
7. Fungsi aktivasi …………………………………………… 29
BAB V. KESIMPULAN DAN SARAN …………………………………. 31
A. KESIMPULAN ……………………………………………… 31
B. SARAN ……………………………………………………….. 34
DAFTAR PUSTAKA ………………………………………………………… 35
LAMPIRAN…………………………………………………………………… 36
7
DAFTAR GAMBAR
Halaman
Gambar 1. Arsitektur Jaringan Backpropagation ………………………… 18
Gambar 2. Struktur Neuron Jaringan Syaraf………………………………. 20
Gambar 3. Jaringan Syaraf dengan Banyak Lapisan………………………. 23
Gambar 4. Fungsi Aktivasi ………………………………………………… 30
Gambar 5. Pembelajaran dengan Trainingdm………………………………. 51
Gambar 6. Perbandingan antara Data Training dan Target atau Output
dari input pertama dan input kedua…………………………….. 50
Gambar 7. Perbandingan antara Data Testing dan Target atau Output……... 51
8
DAFTAR LAMPIRAN
Lampiran 1. Data Keseluruhan Penelitian ………………………………….. 37
Lampiran 2. Source Code …………………………………………………… 38
Lampiran 3. Format Pembentukan Jaringan dengan Matlab ………………… 39
Lampiran 4. Output Program ………………………………………………… 40
Lampiran 5. Grafik Output Program …………………………………………. 50
9
APLIKASI JARINGAN SYARAF TIRUAN UNTUK MEMPREDIKSI PRESTASI SISWA SMU
DENGAN METODE BACKPROPAGATION
Penulis : Fitria Yunanti / NIM: 04610018
Pembimbing :
1. Akhmad Fauzy, Ph.D.
2. Sri Utami Zuliana, S.Si, M.Sc
ABSTRAKSI
Tujuan dari penelitian ini adalah 1) Mempelajari teori jaringan syaraf tiruan backpropagation; dan 2) Menerapkan perangkat lunak berbasis jaringan syaraf tiruan backpropagation untuk melakukan prediksi dengan program yang digunakan adalah MATLAB. Penelitian ini menggunakan metode literature dan analisis data. Pengambilan data dilakukan dengan melakukan penelitian secara langsung ke obyek yang dijadikan acuan dalam penganalisisan data. Obyek penelitian ini adalah nilai UAN suatu bidang studi ketika masih berada di bangku SMP dan nilai rata-rata ujian semester suatu bidang studi ketika berada di SMA. Penelitian dilaksanakan pada bulan maret 2009 dengan mengambil lokasi di SMA N 1 WERU SUKOHARJO, Jawa Tengah, Indonesia. Hasil analisis penelitian menunjukkan bahwa; 1) Jaringan syaraf backpropagation adalah sistem pemrosesan informasi yang bertujuan untuk melatih jaringan agar mendapatkan keseimbangan antara kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan dan kemampuan jaringan untuk memberikan respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama) dengan pola yang digunakan selama pelatihan. 2) pada saat pengujian terjadi kesalahan yang paling besar adalah 76,62 dan terdapat nilai Mean Square Error (MSE) pada akhir pelatihan sebesar 0,126, sehingga dapat diperkirakan bahwa dari 50 data yang dilatihkan ada 29 data yang tidak sesuai dengan output yang diinginkan, sedangkan ada 21 data yang sesuai dengan output yang diinginkan, artinya banyak peserta didik yang kurang berprestasi saat di Sekolah Menengah Umum (SMU) walaupun ketika di Sekolah Menengah Pertama (SMP) mereka berprestasi. 3) Dari output program MATLAB dapat dibuat model matematika, yaitu y = 3,4287x1+ 0,0699x2 + 0,7494. Kata kunci: Aplikasi Jaringan Syaraf Tiruan dengan metode Backpropagation
10
BAB I PENDAHULUAN
A. Latar Belakang Masalah
Setelah melalui beberapa fase perkembangannya, komputer modern
berperan besar dalam memberikan dukungan kepada manusia untuk
menyelesaikan berbagai macam persoalan. Seiring dengan kemajuan teknologi
komputer, pekerjaan yang sebelumnya tidak dapat atau sulit dilakukan oleh
komputer, kini dapat diselesaikan dengan cukup baik. Dewasa ini, komputer
digunakan secara luas pada hampir segala aspek kehidupan manusia dan
memegang peranan yang sangat penting dalam bidang industri, matematika,
perdagangan, dan hampir seluruh bidang dalam kehidupan manusia lainnya.
Jaringan Syaraf Tiruan (Artificial Neural Network) atau disingkat JST,
adalah sistem komputasi dimana arsitektur dan operasi diilhami dari
pengetahuan tentang sel syaraf biologis dalam otak, yang merupakan salah
satu representasi buatan dari otak manusia yang selalu mencoba menstimulasi
proses pembelajaran pada otak manusia tersebut.
Saat ini, komputer tidak lagi hanya digunakan untuk sekedar
membantu pekerjaan manusia, tetapi juga untuk mengganti hampir sebagian
besar pekerjaan manusia yang tidak memerlukan pemikiran dan bersifat rutin.
Perkembangan selanjutnya, para ahli mencoba untuk mengadaptasi sistem
otak manusia ke dalam sistem komputer, sehingga diharapkan dimasa yang
akan datang, jaringan syaraf tiruan bekerja mendekati sistem kerja otak
manusia yaitu dapat menyimpulkan dan mengambil keputusan berdasarkan
11
data yang dimasukkan. Jadi, jaringan syaraf tiruan merupakan salah satu dari
sistem informasi yang didesain dengan menirukan kerja otak manusia dalam
menyelesaikan suatu masalah dengan melakukan proses belajar melalui
perubahan bobot sinapsisnya.
Jaringan syaraf tiruan yang digunakan dalam skripsi ini adalah jaringan
syaraf tiruan dengan metode backpropagation yang pemrogramannya
menggunakan toolbox matlab. Toolbox MATLAB merupakan salah satu alat
pemrograman dalam komputer yang bisa digunakan untuk memprediksi data
prestasi siswa SMU dengan jaringan syaraf tiruan. Toolbox MATLAB adalah
perangkat lunak yang cocok dipakai karena banyak model jaringan syaraf
tiruan yang menggunakan manipulasi matriks/vektor dalam iterasinya.
Toolbox MATLAB telah menyediakan fungsi-fungsi khusus untuk
menyelesaikan model jaringan syaraf tiruan.
Jaringan syaraf tiruan terdiri dari beberapa metode, yaitu metode hebb,
metode perceptron, metode backpropagation, metode adaline. Dari sekian
banyak metode jaringan syaraf tiruan yang paling terkenal adalah metode
backpropagation. Menurut Andreson, metode backpropogation paling banyak
dipakai untuk melakukan prediksi nilai berdasarkan data time series.
Data time series diperoleh dari penelitian prestasi siswa di SMU
Negeri 1 Weru Sukoharjo. SMU Negeri 1 Weru Sukoharjo merupakan salah
satu SMU negeri yang berstandar nasional di kabupaten Sukoharjo. Seiring
dengan perkembangan dunia pendidikan, prestasi SMU Negeri 1 Weru
Sukoharjo dapat dibanggakan. Seleksi penerimaan siswa baru menjadi
12
pengaruh berkembang atau tidaknya pendidikan di sekolah tersebut. Pada
dasarnya tidak ada penolakan dalam seleksi penerimaan siswa baru, namun
karena disesuaikan dengan daya tampung di setiap sekolah, maka dilakukan
seleksi terhadap para calon peserta didik berdasarkan peringkat nilai Ujian
Akhir Nasional (UAN) ketika para peserta didik masih duduk di bangku
Sekolah Menengah Pertama (SMP). Seleksi penerimaan siswa baru bertujuan
untuk meningkatkan kualitas dan kuantitas SMU Negeri 1 Weru Sukoharjo
dalam hal prestasi. Oleh sebab itu, jaringan syaraf tiruan akan mencoba
memprediksi nilai Ujian Akhir Semester ketika peserta didik masih duduk di
bangku Sekolah Menengah Pertama (SMP) dan nilai awal semester ketika
para peserta didik sudah belajar di SMU Negeri 1 Weru berkaitan dengan
prestasi yang diperoleh.
B. Perumusan Masalah
Masalah pada skripsi ini adalah mempelajari alur dan teori-teori yang
digunakan pada pemrograman jaringan syaraf tiruan backpropagation dengan
menggunakan bantuan program MATLAB untuk melakukan prediksi.
C. Batasan Masalah
Dari latar belakang masalah di atas, maka dapat diambil batasan
masalah sebagai berikut:
1. Jaringan Syaraf Tiruan backpropagation terdiri dari satu layer input, satu
layer tersembunyi, dan satu variabel output.
13
2. Pengaplikasian program jaringan syaraf tiruan backpropagation untuk
memprediksi data prestasi siswa SMU dengan bantuan program MATLAB
sebagai software utamanya.
D. Tujuan Penelitian
Sesuai dengan pokok permasalahan yang telah dirumuskan di atas,
maka tujuan penelitian ini adalah:
1. Mempelajari teori jaringan syaraf tiruan backpropagation.
2. Menerapkan perangkat lunak berbasis jaringan syaraf tiruan
backpropagation untuk melakukan prediksi data prestasi siswa SMU
dengan bantuan program yang digunakan adalah MATLAB.
E. Manfaat Penelitian
Manfaat dari penelitian ini adalah:
1. Memberikan alternatif lain untuk memprediksi data yang sudah ada.
2. Memberikan hasil analisis dan evaluasi tentang struktur Jaringan Syaraf
Tiruan yang optimal yang dipakai untuk pengembangan aplikasi lebih
lanjut.
3. Sebagai sumbangan informasi bagi mereka yang berminat mengkaji
metode jaringan syaraf tiruan ini.
4. Untuk memperkaya ilmu pengetahuan jaringan syaraf tiruan dalam hal
memprediksi.
14
F. Sistematika Pembahasan
Sistematika penulisan skripsi meliputi hal-hal berikut:
Bab I Pendahuluan
Bab ini akan menjadi dasar pijakan bagi pembahasan pada
beberapa bab berikutnya. Bab yang pertama ini terdiri dari latar
belakang masalah, perumusan masalah, batasan masalah, tujuan
penelitian, manfaat penelitian, dan sistematika pembahasan.
Bab II Tinjauan Pustaka
A. Tinjauan Pustaka
B. Landasan Teori
Bab III Metode Penelitian
A. Jenis Penelitian
B. Pendekatan Penelitian
C. Metode Pengumpulan Data
Bab IV Hasil Penelitian dan Pembahasan
A. Hasil Penelitian
B. Pembahasan
Bab V Kesimpulan
A. Kesimpulan B. Saran
40
BAB V
KESIMPULAN DAN SARAN
A. KESIMPULAN
Jaringan syaraf tiruan adalah suatu sistem pemrosesan informasi yang
mempunyai karakteristik menyerupai jaringan syaraf manusia. Model jaringan
syaraf tiruan terdiri atas beberapa elemen penghitung tak linier yang masing-
masing dihubungkan melalui suatu pembobot dan tersusun secara paralel.
Pembobot inilah yang nantinya akan berubah (beradaptasi) selama jaringan
syaraf tiruan ini mengalami pelatihan. Pelatiham perlu dilakukan pada suatu
jaringan syaraf tiruan sebelum digunakan untuk menyelesaikan suatu masalah.
Jaringan syaraf tiruan terdiri dari berbagai model, antara lain: hebb,
perceptron, adaline/madalaine, backpropagation, dan hopfield. Model yang
digunakan pada skripsi ini yaitu model jaringan syaraf tiruan
backpropagation. Jaringan syaraf backpropagation adalah sistem pemrosesan
informasi yang bertujuan untuk melatih jaringan agar mendapatkan
keseimbangan antara kemampuan jaringan untuk mengenali pola yang
digunakan selama pelatihan dan kemampuan jaringan untuk memberikan
respon yang benar terhadap pola masukan yang serupa (tetapi tidak sama)
dengan pola yang digunakan selama pelatihan.
Jaringan syaraf tiruan backpropagation merupakan algoritma
pembelajaran yang terawasi. Metode backpropagation dibagi menjadi 3 fase,
yaitu propagasi maju, propagasi mundur dan perubahan bobot. Fase pertama
41
adalah propagasi maju, tujuannya mencari keluaran network dan error. Pola
masukan dihitung maju mulai dari layer input menuju layer output melewati
hidden layer menggunakan fungsi aktivasi yang telah ditentukan. Selisih
antara target dan keluaran output menghasilkan error. Pada fase kedua, error
yang dihasilkan dipropagasikan mundur, dimulai dari bobot yang
menghubungkan output dan hidden layer dan layer output. Dan fase ketiga
adalah memodifikasi bobot untuk menurunkan nilai error yang terjadi.
Dalam pelatihan, pengujian, dan prediksi nilai, sistem jaringan syaraf
tiruan mempunyai beberapa kelebihan, antara lain proses yang akurat, cepat,
serta dapat meminimalisasi kesalahan. Adapun kelemahan jaringan syaraf
tiruan ini antara lain sistem jaringan syaraf tiruan merupakan sistem baru,
sehingga hanya dapat berfungsi sebagai alat bantú saja. Oleh sebab itu, di
dalam pengambilan keputusan masih digunakan faktor-faktor pendukung atau
kebijakan-kabijakan yang lain. Untuk lebih mengetahui kemampuan prediksi,
semakin banyak jumlah data yang dilatihkan, maka akan semakin baik.
Namun akan berdampak dengan lambatnya proses palatihan.
Pada perolehan data ini, hasilnya menunjukkan bahwa siswa dengan
nilai UAN ketika di SMP yang bagus, tidak selalu menunjukkan prestasi yang
baik pada saat di SMU. Hasil data-data yang dilatih dan di uji juga
menunjukkan bahwa nilai UAN mata pelajaran matematika dan IPA ketika di
SMP yang baik tidak selalu menunjukkan prestasi yang baik juga saat di
SMU. Penerapan toolbox MATLAB dapat dilihat di lampiran.
42
Dalam output program MATLAB dapat dibuat model matematika
secara sederhana yaitu sebagai berikut:
y = v1H1+v2H2+…+vnHn+b1+b2
dimana:
H1 = w11x1 + w12x2
H2 = w21x1 + w22x2
.
.
.
Hn =wm1x1 + wm2x2
y=v1(w11x1+w12x2)+v2(w21x1+w22x2)+…+vn(wm1x1+wm2x2)b1+b2
y= v1 v2 … vn w11 w12
w21 w22 x1
. . x2
. . b1 +b2
wm1 wm2
y= 0,3698 0,4987 -0,8935 -1,2929 0,667 0,2027 -0,2925 0,0715 x1
0,3332 -0,4884 0,0590 x2
-0,9428 -0,5056 -0,1369 +b2 -1,4021 0,0279 -0,3999 b1
0,5485 0,0090 -0,3218
x1
y = 3,4287 0,0699 0,4802 x2 + 0,2692 1 1
y = 3,4287x1+ 0,0699x2 + 0,7494
43
B. SARAN
Ada beberapa saran yang diajukan penulis dengan selesainya
penelitian ini, yaitu:
a. Perlu dilakukan pembelajaran dan pelatihan dengan data yang lebih
banyak, sehingga pola jaringan syaraf tiruan yang dikenali lebih mendekati
target.
b. Penelitian lebih lanjut diharapkan mampu mengaplikasikan jaringan syaraf
tiruan kedalam metode-metode yang lainnya dengan data yang berbeda
dan dengan program yang berbeda juga, sehingga hasilnya dapat
dibandingkan dengan penelitian penulis.
c. Jaringan syaraf tiruan masih membutuhkan campur tangan pakar untuk
memasukkan pengetahuan dan menguji data, karena diharapkan hasil yang
diperoleh selama pembelajaran bisa sesuai dengan target yang diinginkan.
44
DAFTAR PUSTAKA
Anggarani, D, 2006, Jaringan Saraf Tiruan Untuk Prediksi Kelulusan Dan Penjurusan Ke Sekolah Lanjutan Pada Siswa Sekolah Menengah Pertama (SMP) Dengan Metode Backpropagation, Skripsi Jurusan Matematika dan Ilmu Pengetahuan Alam UGM.
Anton, H., 1995, Aljabar Linier Elementer, Erlangga. Jakarta.
Fausett, L., 1994, Fundamentals of Neural Network, Architecture, Algoritms, And Applications, Printice-Hall, Inc, London.
Furchan, A., Agus M., 2005, Studi Tokoh: Metode penelitian mengenai tokoh, Pustaka Pelajar, Yogyakarta.
Hermawan, Arief, 2006, Jaringan Saraf Tiruan (Teori dan Aplikasi), C.V Andi Offset, Yogyakarta.
Jong, J.S, 2005, Jaringan Saraf Tiruan dan Pemrogramannya Menggunakan Matlab, C.V Andi Offset, Yogyakarta.
Kusumadewi, S., 2004, Membangun Jaringan Saraf Tiruan Menggunakan Matlab Dan Excel Link, Graha Ilmu, Yogyakarta.
Nursantika, D, 2008, Identifikasi Sidik Bibir Menggunakan Jaringan Saraf Tiruan Backpropagation, Skripsi Jurusan Matematika dan Ilmu Pengetahuan Alam UGM.
Puspitaningrum, 2006, Pengantar Jaringan Saraf Tiruan, C.V Andi Offset, Yogyakarta.
Supranto, J., 1993, Statistik (Teori dan Aplikasi), Erlangga, Jakarta.
45
���������
46
Lampiran 1. Data Keseluruhan Penelitian
SAMPEL DATA
NILAI UAN DAN NILAI RATA-RATA SEMESTER 1 SMU
NEGERI 1 WERU SUKOHARJO
2008/2009
No INPUT TARGET No INPUT TARGET
X1 X2 X1 X2 1 2 3 4 5 6 7 8 9
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
8 8 6 6.75 6.25 6.5 7.25 6.5 8.25 5 4.5 5 5.75 6.25 4.75 5.25 5.25 7 4.5 4.5 4.5 4.5 5.5 7.25 7.75 5.5 8 4.5 5.75 4.25
6.25 6.75 6 7 8 8 8.25 5 6.25 6.75 5.5 6.25 6.25 8 6.25 6.75 7.5 6.5 6 6.75 7.5 6.5 5.25 6.25 7.75 6.25 7 6 5 6.75
60 72.5 67.5 70 60 70 67.5 62.5 70 47.5 45 45 60 67.5 45 57.5 45 80 40 45 47.5 65 47.5 80 75 47.5 72.5 55 50 50
31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
4.5 5.75 8.5 5 6.5 5.5 4.25 5.5 5 5.75 5 4.75 5.25 6.75 5.5 4.25 6 5.75 5.5 5.75 7.75 6.5 7.5 4.75 7.5 8.5 5.5 4.75 5 6.75
6.75 7.75 8.5 6.5 6.25 6 5.5 6.5 8.25 6.5 6.5 5.75 8 8.25 6.25 7.75 5.5 6.25 6.25 8 6.5 6 7.25 8.25 4.5 8.25 4.5 5.75 5 8
57.5 52.5 72.5 52.5 82.5 47.5 40 52.5 45 45 50 62.5 50 70 45 50 60 65 67.5 52.5 67.5 65 70 77.5 72.5 67.5 75 47.5 72.5 70
47
Lampiran 2. Source Code » %data input dan target » %prepocessing » [pn,minp,maxp,tn,mint,maxt]=premnmx (p,t) » %membangun jaringan syaraf feedforward » net=newff(minmax(pn),[5 1],{'logsig' 'purelin'},'traingdm'); » %set bobot » %set max epoch, goal, learning rate, show step » %melakukan pembelajaran » net=train(net,pn,tn); » %melihat bobot-bobot awal input, lapisan dan bias » bobotAkhir_input=net.IW{1,1} » bobotAkhir_bias_input=net.b{1,1} » bobotAkhir_lapisan=net.LW{2,1} » bobotAkhir_bias_lapisan=net.b{2,1} » %melakukan simulasi » an=sim (net , pn) » %input baru Q akan di tes, dengan target TQ » %normalisasi input baru » Qn = tramnmx(Q,minp,maxp); » bn = sim(net,Qn) » %menggambar grafik » pause; » subplot(211) plot(p(1,:),t,'bo',p(1,:),a,'g*'); » title ('Data Training: Perbandingan antara Target (o) dan Output Jaringan (*)'); xlabel('input pertama'); » ylabel('Target atau Output'); » grid; » subplot(212) » plot(p(2,:), t ,'mo',p(2,:),a,'r+'); » title ('Data Training: Perbandingan antara Target (o) dan Output Jaringan (+)'); » xlabel ('input kedua'); » ylabel('Target atau Output'); » grid;pause; » subplot (211) » plot(Q(1,:), TQ, 'bo', Q(1,:),b,'r*'); » title('Data Testing: Perbandingan antara Target (o) dan Output Jaringan (*)'); xlabel ('input pertama'); » ylabel ('Target atau Output'); » Grid; subplot (212) » plot(Q(2,:),TQ,'bo',Q(2,:),b,'rs'); » title ('Data Testing: Perbandingan antara Target (o) dan Output Jaringan (s)'); » xlabel ('input kedua'); » ylabel ('Target atau Output'); » Grid;
48
Lampiran 3. Format Pembentukan Jaringan dengan MATLAB
Net = newff (PR,[S1,S2,. . . ,SN],{TF1,TF2,. .
.TFN},BTF,BLF,PF)
Dengan
net = jaringan backpropagation yang terdiri dari n
layar
PR = matriks ordo Rx2 yang berisi nilai minimum dan
maksimum R buah elemen masukannya
Si (i=1,2,…,n)= jumlah nilai pada layer ke-I
(i=1,2,…,n)
Tfi (i=1,2,…,n)= fungsi aktivasi yang digunakan pada
layer ke-i (i=1,2,…,n).
Default = tansig (sigmoid bipolar), namun dalam
penulisan ini digunakan fungsi logsig (sigmoid biner)
BTF = fungsi pelatihan jaringan. Defaultnya = traingdx
BLF = fungsi perubahan bobot/bias. Defaultnya =
learngdm
PF = fungsi perhitungan error. Default = mse.
49
Lampiran 4. Output Program
%data input dan target » p=[8 8 6 6.75 6.25 6.5 7.25 6.5 8.25 5 4.5 5 5.75 6.25 4.75 5.25 5.25 7 4.5 4.5 4.5 4.5 5.5 7.25 7.75 5.5 8 4.5 5.75 4.25 4.5 5.75 8.5 5 6.5 5.5 4.25 5.5 5 5.75 5 4.75 5.25 6.75 5.5 4.25 6 5.75 5.5 5.75; 6.25 6.75 6 7 8 8 8.25 5 6.25 6.75 5.5 6.25 6.25 8 6.25 6.75 7.5 6.5 6 6.75 7.5 6.5 5.25 6.25 7.75 6.25 7 6 5 6.75 6.75 7.75 8.5 6.5 6.25 6 5.5 6.5 8.25 6.5 6.5 5.75 8 8.25 6.25 7.75 5.5 6.25 6.25 8]; » t=[60 72.5 67.5 70 60 70 67.5 62.5 70 47.5 45 45 60 67.5 45 57.5 45 80 40 45 47.5 65 47.5 80 75 47.5 72.5 55 50 50 57.5 52.5 72.5 52.5 82.5 47.5 40 52.5 45 45 50 62.5 50 70 45 50 60 65 67.5 52.5]; » %prepocessing » [pn,minp,maxp,tn,mint,maxt]=premnmx (p,t) pn = Columns 1 through 7 0.7647 0.7647 -0.1765 0.1765 -0.0588 0.0588 0.4118 -0.2857 0 -0.4286 0.1429 0.7143 0.7143 0.8571 Columns 8 through 14 0.0588 0.8824 -0.6471 -0.8824 -0.6471 -0.2941 -0.0588 -1.0000 -0.2857 0 -0.7143 -0.2857 -0.2857 0.7143 Columns 15 through 21 -0.7647 -0.5294 -0.5294 0.2941 -0.8824 -0.8824 -0.8824 -0.2857 0 0.4286 -0.1429 -0.4286 0 0.4286 Columns 22 through 28 -0.8824 -0.4118 0.4118 0.6471 -0.4118 0.7647 -0.8824 -0.1429 -0.8571 -0.2857 0.5714 -0.2857 0.1429 -0.4286 Columns 29 through 35 -0.2941 -1.0000 -0.8824 -0.2941 1.0000 -0.6471 0.0588 -1.0000 0 0 0.5714 1.0000 -0.1429 -0.2857 Columns 36 through 42
50
-0.4118 -1.0000 -0.4118 -0.6471 -0.2941 -0.6471 -0.7647 -0.4286 -0.7143 -0.1429 0.8571 -0.1429 -0.1429 -0.5714 Columns 43 through 49 -0.5294 0.1765 -0.4118 -1.0000 -0.1765 -0.2941 -0.4118 0.7143 0.8571 -0.2857 0.5714 -0.7143 -0.2857 -0.2857 Column 50 -0.2941 0.7143 minp = 4.2500 5.0000 maxp = 8.5000 8.5000 tn = Columns 1 through 7 -0.0588 0.5294 0.2941 0.4118 -0.0588 0.4118 0.2941 Columns 8 through 14 0.0588 0.4118 -0.6471 -0.7647 -0.7647 -0.0588 0.2941 Columns 15 through 21 -0.7647 -0.1765 -0.7647 0.8824 -1.0000 -0.7647 -0.6471 Columns 22 through 28 0.1765 -0.6471 0.8824 0.6471 -0.6471 0.5294 -0.2941 Columns 29 through 35 -0.5294 -0.5294 -0.1765 -0.4118 0.5294 -0.4118 1.0000
51
Columns 36 through 42 -0.6471 -1.0000 -0.4118 -0.7647 -0.7647 -0.5294 0.0588 Columns 43 through 49 -0.5294 0.4118 -0.7647 -0.5294 -0.0588 0.1765 0.2941 Column 50 -0.4118 mint = 40 maxt = 82.5000 » %membangun jaringan syaraf feedforward » net=newff(minmax(pn),[5 1],{'logsig' 'purelin'},'traingdm'); » %set bobot awal » net.IW{1,1}=[-0.10 -0.30; -0.05 -0.50; -0.05 -0.60; 0.01 0.05; 0.05 0.01]; » net.b{1,1}=[0.05 0.01 0.02 -0.30 -0.40]'; » net.LW{2,1}=[0.25 0.30 -0.50 -0.75 0.30]; » net.b{2,1}=[0.05]; » %set max epoch, goal, learning rate, show step » net.trainParam.epochs=1000; » net.trainParam.goal=1e-3; » net.trainParam.lr=0.1; » net.trainParam.show=10; » %melakukan pembelajaran » net=train (net,pn,tn); TRAINGDM, Epoch 0/1000, MSE 0.293082/0.001, Gradient 0.188121/1e-010 TRAINGDM, Epoch 10/1000, MSE 0.281679/0.001, Gradient 0.216595/1e-010 TRAINGDM, Epoch 20/1000, MSE 0.266109/0.001, Gradient 0.121899/1e-010 TRAINGDM, Epoch 30/1000, MSE 0.254394/0.001, Gradient 0.109596/1e-010 TRAINGDM, Epoch 40/1000, MSE 0.243375/0.001, Gradient 0.111568/1e-010 TRAINGDM, Epoch 50/1000, MSE 0.2323/0.001, Gradient 0.104989/1e-010 TRAINGDM, Epoch 60/1000, MSE 0.221456/0.001, Gradient 0.103922/1e-010 TRAINGDM, Epoch 70/1000, MSE 0.210756/0.001, Gradient 0.103102/1e-010
52
TRAINGDM, Epoch 80/1000, MSE 0.200269/0.001, Gradient 0.101023/1e-010 TRAINGDM, Epoch 90/1000, MSE 0.190163/0.001, Gradient 0.0982676/1e-010 TRAINGDM, Epoch 100/1000, MSE 0.18061/0.001, Gradient 0.0945482/1e-010 TRAINGDM, Epoch 110/1000, MSE 0.171776/0.001, Gradient 0.0898172/1e-010 TRAINGDM, Epoch 120/1000, MSE 0.163806/0.001, Gradient 0.0842491/1e-010 TRAINGDM, Epoch 130/1000, MSE 0.156793/0.001, Gradient 0.0780168/1e-010 TRAINGDM, Epoch 140/1000, MSE 0.150777/0.001, Gradient 0.0713438/1e-010 TRAINGDM, Epoch 150/1000, MSE 0.145741/0.001, Gradient 0.0644815/1e-010 TRAINGDM, Epoch 160/1000, MSE 0.141622/0.001, Gradient 0.0576627/1e-010 TRAINGDM, Epoch 170/1000, MSE 0.138323/0.001, Gradient 0.0510902/1e-010 TRAINGDM, Epoch 180/1000, MSE 0.135728/0.001, Gradient 0.0449236/1e-010 TRAINGDM, Epoch 190/1000, MSE 0.133718/0.001, Gradient 0.039271/1e-010 TRAINGDM, Epoch 200/1000, MSE 0.132179/0.001, Gradient 0.0341924/1e-010 TRAINGDM, Epoch 210/1000, MSE 0.131011/0.001, Gradient 0.0297055/1e-010 TRAINGDM, Epoch 220/1000, MSE 0.130128/0.001, Gradient 0.0257951/1e-010 TRAINGDM, Epoch 230/1000, MSE 0.129461/0.001, Gradient 0.0224235/1e-010 TRAINGDM, Epoch 240/1000, MSE 0.128956/0.001, Gradient 0.0195395/1e-010 TRAINGDM, Epoch 250/1000, MSE 0.128573/0.001, Gradient 0.0170862/1e-010 TRAINGDM, Epoch 260/1000, MSE 0.12828/0.001, Gradient 0.0150064/1e-010 TRAINGDM, Epoch 270/1000, MSE 0.128054/0.001, Gradient 0.0132468/1e-010 TRAINGDM, Epoch 280/1000, MSE 0.127877/0.001, Gradient 0.0117594/1e-010 TRAINGDM, Epoch 290/1000, MSE 0.127739/0.001, Gradient 0.0105027/1e-010 TRAINGDM, Epoch 300/1000, MSE 0.127628/0.001, Gradient 0.00944154/1e-010 TRAINGDM, Epoch 310/1000, MSE 0.127538/0.001, Gradient 0.00854638/1e-010 TRAINGDM, Epoch 320/1000, MSE 0.127465/0.001, Gradient 0.00779257/1e-010 TRAINGDM, Epoch 330/1000, MSE 0.127404/0.001, Gradient 0.0071595/1e-010 TRAINGDM, Epoch 340/1000, MSE 0.127353/0.001, Gradient 0.00662981/1e-010 TRAINGDM, Epoch 350/1000, MSE 0.127309/0.001, Gradient 0.00618866/1e-010
53
TRAINGDM, Epoch 360/1000, MSE 0.12727/0.001, Gradient 0.00582324/1e-010 TRAINGDM, Epoch 370/1000, MSE 0.127236/0.001, Gradient 0.00552238/1e-010 TRAINGDM, Epoch 380/1000, MSE 0.127206/0.001, Gradient 0.00527628/1e-010 TRAINGDM, Epoch 390/1000, MSE 0.127178/0.001, Gradient 0.00507631/1e-010 TRAINGDM, Epoch 400/1000, MSE 0.127152/0.001, Gradient 0.00491493/1e-010 TRAINGDM, Epoch 410/1000, MSE 0.127128/0.001, Gradient 0.00478558/1e-010 TRAINGDM, Epoch 420/1000, MSE 0.127105/0.001, Gradient 0.00468263/1e-010 TRAINGDM, Epoch 430/1000, MSE 0.127083/0.001, Gradient 0.00460128/1e-010 TRAINGDM, Epoch 440/1000, MSE 0.127062/0.001, Gradient 0.00453749/1e-010 TRAINGDM, Epoch 450/1000, MSE 0.127041/0.001, Gradient 0.0044879/1e-010 TRAINGDM, Epoch 460/1000, MSE 0.127021/0.001, Gradient 0.00444974/1e-010 TRAINGDM, Epoch 470/1000, MSE 0.127001/0.001, Gradient 0.00442075/1e-010 TRAINGDM, Epoch 480/1000, MSE 0.126982/0.001, Gradient 0.00439908/1e-010 TRAINGDM, Epoch 490/1000, MSE 0.126962/0.001, Gradient 0.00438325/1e-010 TRAINGDM, Epoch 500/1000, MSE 0.126943/0.001, Gradient 0.00437207/1e-010 TRAINGDM, Epoch 510/1000, MSE 0.126924/0.001, Gradient 0.00436458/1e-010 TRAINGDM, Epoch 520/1000, MSE 0.126905/0.001, Gradient 0.00436002/1e-010 TRAINGDM, Epoch 530/1000, MSE 0.126886/0.001, Gradient 0.0043578/1e-010 TRAINGDM, Epoch 540/1000, MSE 0.126867/0.001, Gradient 0.00435742/1e-010 TRAINGDM, Epoch 550/1000, MSE 0.126848/0.001, Gradient 0.00435852/1e-010 TRAINGDM, Epoch 560/1000, MSE 0.126829/0.001, Gradient 0.00436078/1e-010 TRAINGDM, Epoch 570/1000, MSE 0.12681/0.001, Gradient 0.00436398/1e-010 TRAINGDM, Epoch 580/1000, MSE 0.126791/0.001, Gradient 0.00436793/1e-010 TRAINGDM, Epoch 590/1000, MSE 0.126772/0.001, Gradient 0.00437248/1e-010 TRAINGDM, Epoch 600/1000, MSE 0.126753/0.001, Gradient 0.0043775/1e-010 TRAINGDM, Epoch 610/1000, MSE 0.126734/0.001, Gradient 0.00438292/1e-010 TRAINGDM, Epoch 620/1000, MSE 0.126714/0.001, Gradient 0.00438866/1e-010 TRAINGDM, Epoch 630/1000, MSE 0.126695/0.001, Gradient 0.00439465/1e-010
54
TRAINGDM, Epoch 640/1000, MSE 0.126676/0.001, Gradient 0.00440086/1e-010 TRAINGDM, Epoch 650/1000, MSE 0.126656/0.001, Gradient 0.00440726/1e-010 TRAINGDM, Epoch 660/1000, MSE 0.126637/0.001, Gradient 0.0044138/1e-010 TRAINGDM, Epoch 670/1000, MSE 0.126618/0.001, Gradient 0.00442048/1e-010 TRAINGDM, Epoch 680/1000, MSE 0.126598/0.001, Gradient 0.00442727/1e-010 TRAINGDM, Epoch 690/1000, MSE 0.126578/0.001, Gradient 0.00443416/1e-010 TRAINGDM, Epoch 700/1000, MSE 0.126559/0.001, Gradient 0.00444114/1e-010 TRAINGDM, Epoch 710/1000, MSE 0.126539/0.001, Gradient 0.0044482/1e-010 TRAINGDM, Epoch 720/1000, MSE 0.126519/0.001, Gradient 0.00445534/1e-010 TRAINGDM, Epoch 730/1000, MSE 0.126499/0.001, Gradient 0.00446255/1e-010 TRAINGDM, Epoch 740/1000, MSE 0.126479/0.001, Gradient 0.00446982/1e-010 TRAINGDM, Epoch 750/1000, MSE 0.12646/0.001, Gradient 0.00447716/1e-010 TRAINGDM, Epoch 760/1000, MSE 0.126439/0.001, Gradient 0.00448456/1e-010 TRAINGDM, Epoch 770/1000, MSE 0.126419/0.001, Gradient 0.00449201/1e-010 TRAINGDM, Epoch 780/1000, MSE 0.126399/0.001, Gradient 0.00449953/1e-010 TRAINGDM, Epoch 790/1000, MSE 0.126379/0.001, Gradient 0.0045071/1e-010 TRAINGDM, Epoch 800/1000, MSE 0.126359/0.001, Gradient 0.00451474/1e-010 TRAINGDM, Epoch 810/1000, MSE 0.126338/0.001, Gradient 0.00452242/1e-010 TRAINGDM, Epoch 820/1000, MSE 0.126318/0.001, Gradient 0.00453017/1e-010 TRAINGDM, Epoch 830/1000, MSE 0.126297/0.001, Gradient 0.00453797/1e-010 TRAINGDM, Epoch 840/1000, MSE 0.126277/0.001, Gradient 0.00454582/1e-010 TRAINGDM, Epoch 850/1000, MSE 0.126256/0.001, Gradient 0.00455373/1e-010 TRAINGDM, Epoch 860/1000, MSE 0.126235/0.001, Gradient 0.0045617/1e-010 TRAINGDM, Epoch 870/1000, MSE 0.126214/0.001, Gradient 0.00456973/1e-010 TRAINGDM, Epoch 880/1000, MSE 0.126194/0.001, Gradient 0.00457781/1e-010 TRAINGDM, Epoch 890/1000, MSE 0.126173/0.001, Gradient 0.00458596/1e-010 TRAINGDM, Epoch 900/1000, MSE 0.126152/0.001, Gradient 0.00459416/1e-010 TRAINGDM, Epoch 910/1000, MSE 0.12613/0.001, Gradient 0.00460241/1e-010
55
TRAINGDM, Epoch 920/1000, MSE 0.126109/0.001, Gradient 0.00461073/1e-010 TRAINGDM, Epoch 930/1000, MSE 0.126088/0.001, Gradient 0.00461911/1e-010 TRAINGDM, Epoch 940/1000, MSE 0.126067/0.001, Gradient 0.00462754/1e-010 TRAINGDM, Epoch 950/1000, MSE 0.126045/0.001, Gradient 0.00463604/1e-010 TRAINGDM, Epoch 960/1000, MSE 0.126024/0.001, Gradient 0.0046446/1e-010 TRAINGDM, Epoch 970/1000, MSE 0.126002/0.001, Gradient 0.00465322/1e-010 TRAINGDM, Epoch 980/1000, MSE 0.125981/0.001, Gradient 0.0046619/1e-010 TRAINGDM, Epoch 990/1000, MSE 0.125959/0.001, Gradient 0.00467065/1e-010 TRAINGDM, Epoch 1000/1000, MSE 0.125937/0.001, Gradient 0.00467946/1e-010 TRAINGDM, Maximum epoch reached, performance goal was not met. » %melihat bobot-bobot awal input, lapisan dan bias » bobotAkhir_input=net.IW{1,1} bobotAkhir_input = 0.2027 -0.2925 0.3332 -0.4884 -0.9428 -0.5056 -1.4021 0.0279 0.5485 0.0090 » bobotAkhir_bias_input=net.b{1,1} bobotAkhir_bias_input = 0.0715 0.0590 -0.1369 -0.3999 -0.3218 » bobotAkhir_lapisan=net.LW{2,1} bobotAkhir_lapisan = 0.3698 0.4987 -0.8935 -1.2929 0.6677 » bobotAkkhir_bias_lapisan=net.b{2,1} bobotAkkhir_bias_lapisan = 0.2692 » %melakukan simulasi » an=sim(net,pn) an =
56
Columns 1 through 7 0.6036 0.6059 -0.0862 0.2029 0.0273 0.1195 0.3787 Columns 8 through 14 0.0899 0.6731 -0.4541 -0.6275 -0.4569 -0.1788 0.0273 Columns 15 through 21 -0.5447 -0.3626 -0.3555 0.2870 -0.6289 -0.6278 -0.6229 Columns 22 through 28 -0.6286 -0.2791 0.3700 0.5335 -0.2732 0.6062 -0.6289 Columns 29 through 35 -0.1879 -0.7089 -0.6278 -0.1640 0.7233 -0.4557 0.1042 Columns 36 through 42 -0.2750 -0.7059 -0.2712 -0.4386 -0.1765 -0.4557 -0.5453 Columns 43 through 49 -0.3498 0.2102 -0.2732 -0.7029 -0.0908 -0.1788 -0.2732 Column 50 -0.1613 » a=postmnmx(an,mint,maxt) a = Columns 1 through 7 74.0765 74.1247 59.4182 65.5614 61.8300 63.7892 69.2978 Columns 8 through 14 63.1597 75.5534 51.6009 47.9153 51.5403 57.4514 61.8300 Columns 15 through 21 49.6746 53.5446 53.6956 67.3485 47.8864 47.9092 48.0131
57
Columns 22 through 28 47.8926 55.3199 69.1135 72.5873 55.4452 74.1326 47.8864 Columns 29 through 35 57.2568 46.1854 47.9092 57.7659 76.6205 51.5672 63.4652 Columns 36 through 42 55.4071 46.2490 55.4873 51.9306 57.4993 51.5672 49.6631 Columns 43 through 49 53.8175 65.7165 55.4452 46.3129 59.3204 57.4514 55.4452 Column 50 57.8221 » %input data baru Q akan dites, dengan target TQ » Q=[7.75 6.5 7.5 47.5 7.5 8.5 5.5 4.75 5 6.75; 6.5 6 7.25 8.25 4.5 8.25 4.5 5.75 5 8]; » TQ=[67.5 65 70 77.5 72.5 67.5 75 47.5 72.5 70]; » %normalisasi input baru » Qn=tramnmx(Q,minp,maxp); » bn=sim(net,Qn) bn = Columns 1 through 7 0.5316 0.1015 0.4578 1.7957 0.4273 0.7270 -0.2812 Columns 8 through 10 -0.5453 -0.4584 0.2092 » b=postmnmx(bn,mint,maxt) b = Columns 1 through 7 72.5467 63.4070 70.9779 99.4084 70.3305 76.6981 55.2754 Columns 8 through 10 49.6631 51.5082 65.6963 » %menggambar grafik
58
» pause; » subplot (211) » plot(p(1,:),t,'bo',p(1,:),a,'g*'); » title('data training:perbandingan antara target (o) dan output jaringan (*)'); » xlabel('input pertama'); » ylabel('target atau output'); » grid; » subplot(212) » plot(p(2,:),t,'mo',p(2,:),a,'r+'); » title('data training: perbandingan antara target (o) dan output jaringan (+)'); » xlabel('input kedua'); » ylabel('target atau output'); » grid; pause; » subplot (211) » plot(Q(1,:),TQ,'bo',Q(1,:),b,'r*'); » title('data testing:perbandingan antara target (o) dan output jaringan (*)'); » xlabel('input pertama'); » ylabel('input kedua'); » grid; » subplot (212) » plot (Q(2,:),TQ,'bo',Q(2,:),b,'rs'); » title ('data testing:perbandingan antara target (o) dan output jaringan (s)'); » xlabel('input kedua'); » ylabel('target atau output'); » grid;
59
Lampiran 5. Grafik Output Jaringan
0 100 200 300 400 500 600 700 800 900 100010
-3
10-2
10-1
100
Performance is 0.125937, Goal is 0.001
1000 Epochs
Tra
inin
g-B
lue
Goa
l-Bla
ck
Gambar.5. Pembelajaran dengan trainingdm.
4 4.5 5 5.5 6 6.5 7 7.5 8 8.540
50
60
70
80
90data training:perbandingan antara target (o) dan output jaringan (*)
input pertama
targ
et a
tau
outp
ut
5 5.5 6 6.5 7 7.5 8 8.540
50
60
70
80
90data training: perbandingan antara target (o) dan output jaringan (+)
input kedua
targ
et a
tau
outp
ut
Gambar.6. Perbandingan antara Data Training dan Target atau Output dari
input pertama dan input kedua
60
0 5 10 15 20 25 30 35 40 45 5040
60
80
100data testing:perbandingan antara target (o) dan output jaringan (*)
input pertama
inpu
t ked
ua
4.5 5 5.5 6 6.5 7 7.5 8 8.540
60
80
100data testing:perbandingan antara target (o) dan output jaringan (s)
input kedua
targ
et a
tau
outp
ut
Gambar.7. Perbandingan antara Data Testing dan Target atau Output