TEORIDASAR NEURAL NETWORK...

26
TEORI DASAR NEURAL NETWORK (2) Pengantar Deep Learning

Transcript of TEORIDASAR NEURAL NETWORK...

Page 1: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

TEORI DASAR NEURAL NETWORK (2)

Pengantar Deep Learning

Page 2: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Pelatihan jaringan syaraf tiruan dibagimenjadi dua yaitu, pelatihan dengansupervisi (pembimbing) dan pelatihan

tanpa supervisi.

Tujuan dari pelatihan ini adalah memodifikasi bobot hingga diperoleh bobot yang bisa membuat keluaran jaringan sama dengan target yang

diinginkan.

Paradigma Pembelajaran

Page 3: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Backpropagation adalah metode penurunangradien untuk meminimalkan kuadrat errorkeluaran.

Ada tiga tahap yang harus dilakukan dalampelatihan jaringan, yaitu :

• Tahap perambatan maju (forward propagation) ,• Tahap perambatan-balik,• Tahap perubahan bobot dan bias.

Backpropagation

Page 4: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Backpropagation

Arsitektur jaringan ini terdiri dari input layer, hidden layer danoutput layer seperti

Page 5: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Algoritma Backpropagation5

LAPISANOUTPUT

LAPISANTERSEMBUNYI

LAPISANINPUT

Output aktual

Outputtarget

+

-

Tahap Umpan Maju

Tahap pemropagasi-balikan error

Error

Input

Page 6: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

å=

+=n

1iijij0j vxvin_z

Algoritma Backpropagation

¨ Inisialisasi bobot (ambil nilai random yang cukupkecil).

¨ Selama kondisi berhenti bernilai salah, kerjakan :¤ Tahap Perambatan Maju (forward propagation)

a) Setiap unit input (Xi, i=1,2,3,...,n) menerima sinyal xi danmeneruskan sinyal tersebut ke semua unit pada lapisantersembunyi.

b) Setiap unit tersembunyi (Zi, j=1,2,3,...,p) menjumlahkanbobot sinyal input dengan persamaan berikut:

Page 7: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

å=

+=p

1ijkik0k wzwin_y

Algoritma Backpropagation

n Dan menerapkan fungsi aktivasi untuk menghitung sinyaloutputnya :

n zj = f(z_inj)n Biasanya fungsi aktivasi yang digunakan adalah fungsi sigmoid.n Kemudian mengirimkan sinyal tersebut ke semua unit output.

c) Setiap unit output (Yk, k=1,2,3,...,m) menjumlahkan bobotsinyal input

Page 8: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Algoritma Backpropagation

n Dan menerapkan fungsi aktivasi untuk menghitungn sinyal outputnya : yk = f(y_ink)

d) Setiap unit output (Yk, k=1,2,3,...,m) menerima pola target yang sesuai dengan pola input pelatihan, kemudian hitungerror dengan persamaan berikut:n d k = (tk – yk) f’(y_ink)n f ‘ adalah turunan dari fungsi aktivasin kemudian hitung koreksi bobot dengan persaamaan berikut:

nDwjk = a dk zjn Dan menghitung koreksi bias dengan persamaan berikut :

nDw0k = a dk

n Sekaligus mengirimkan dk ke unit-unit yang ada di lapisan paling kanan.

Page 9: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

å=

=m

1kjkkj win_ dd

• Untuk menghitung informasi error, kalikan nilai ini denganturunan dari fungsi aktivasinya:

• dj = d_inj f’(z_inj)• Kemudian hitung koreksi bobot dengan persamaan berikut:

• Dvjk = a dj xi• Setelah itu hitung juga koreksi bias dengan persamaan

berikut:• Dv0j = a dj

Algoritma Backpropagation

e) Setiap unit tersembunyi (Zj, j=1,2,3,...,p) menjumlahkan deltainputnya (dari unit-unit yang berada pada lapisan dikanannya)

Page 10: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Tahap Perubahan Bobot dan Bias

f) Setiap unit output (Yk, k=1,2,3,...,m) dilakukan perubahanbobot dan bias (j=0,1,2,...,p) dengan persamaan berikut

n wjk(baru) = wjk(lama) + Δwjk

n Setiap unit tersembunyi (Zj, j=1,2,3,...,p) dilakukan perubahanbobot dan bias (i=0,1,2,...,n) dengan persamaan berikut:

n vij(baru) = vij(lama) + Δvij

g) Tes kondisi berhenti

Page 11: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Heteroassociative Memory

¨ Jaringan syaraf heteroassociative memory adalah jaringan yangdapat menyimpan kumpulan pengelompokan pola, dengan caramenentukan bobot-bobotnya sedemikian rupa.

¨ Setiap kelompok merupakan pasangan vektor (s(n), t(n)) dengann=1,2,...,N. Algoritma pelatihan yang biasa digunakan adalahHebb rule

¨ Algoritma:1. Inisialisasi semua bobot = 0.2. Perbaiki bobot dengan persamaan berikut :

n Wij(baru) = wij(lama) + xi*tj3. Untuk setiap vektor input, kerjakan:

n Set input dengan nilai sama dengan vektor input:n Hitung input jaringan ke unit output:

å=i

ijij w*xin_y

Page 12: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Bidirectional Associative Memory (BAM)

Bidirectional Associative Memory (BAM) adalah model jaringan syaraf yang memiliki 2 lapisan, yaitu :

• Lapisan input dan Lapisan output yang mempunyai hubungan timbal balik antara keduanya.

Hubungan ini bersifat bidirectional artinya jika bobot matrik dari sinyal yang dikirim dari lapisan input X ke lapisan output Y adalah W, maka bobot matrik dari sinyal yang dikirim dari lapisan output Y ke lapisan input X adalah WT.

Page 13: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Bidirectional Associative Memory (BAM)

¨ Arsitektur jaringan untuk 3 neuron pada lapisan input dan 2 neuron pada lapisan output seperti terlihat pada Gambar berikut.

Page 14: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Learning Vector Quantization (LVQ)

Learning Vector Quantization (LVQ) adalah suatu metodepelatihan pada lapisan kompetitif terawasi yang akan belajarsecara otomatis untuk mengklasifikasikan vektor-vektor input kedalam kelas-kelas tertentu.

Kelas-kelas yang dihasilkan tergantung pada jarak antaravektor-vektor input.

Jika ada 2 vektor input yang hampir sama, maka lapisankompetitif akan mengklasifikasikan kedua vektor input tersebutke dalam kelas yang sama.

Page 15: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Pembelajaran Tanpa Supervisi(Jaringan Kohonen)

Pertama kali yang memperkenalkan jaringan kohonenadalah Prof. Teuvo Kohonen pada tahun 1982.

Pada jaringan ini, neuron-neuron pada suatu lapisan akanmenyusun dirinya sendiri berdasarkan input nilai tertentudalam suatu cluster.

Dalam proses penyusunan diri, cluster yang dipilih sebagaipemenang adalah cluster yang mempunyai vektor bobotpaling cocok dengan pola input (memiliki jarak yang palingdekat).

Page 16: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regularisasi

¨ Pada aplikasi praktis, kita sering menemukankondisi dimana untuk persoalan yang kompleksketersediaan datapembelajaran terbatas.

¨ Salah satu teknik yang digunakan untukmengkontrol fenomena over-fitting adalahregularisasi (regularization), yaitu dengan caramenambah finalti ke fungsi error.

Page 17: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regularisasi

Page 18: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regularisasi – Penghalusan Kurva

Page 19: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regularisasi – Pengecilan Nilai Bobot

Page 20: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regularisasi – Mengatasi Over-fitting

Page 21: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regresi Linear Umum

Page 22: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Regresi Linear Umum

Page 23: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Dropout

Secara sederhana, dropout mengacu padamengabaikan unit (yaitu neuron) selama fase pelatihanseperangkat neuron tertentu yang dipilih secara acak.

Dengan "mengabaikan", unit-unit ini tidakdipertimbangkan selama umpan maju atau mundurtertentu.

Dropout adalah pendekatan regularisasi padajaringan syaraf tiruan yang membantu mengurangipembelajaran interdependen di antara neuron

Page 24: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Dropout

• Untuk setiap lapisan tersembunyi, untuk setiap sampel pelatihan, untuk setiap iterasi, abaikan (nilai 0 dikeluarkan) pecahan acak, p, simpul (dan aktivasi yang sesuai).

TahapPelatihan

• Gunakan semua aktivasi, namun kurangi mereka dengan faktor p (untuk memperhitungkan aktivasi yang hilang selama latihan).

TahapPengujian

Page 25: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

Dropout

Page 26: TEORIDASAR NEURAL NETWORK (2)reza_chan.staff.gunadarma.ac.id/Downloads/files/59599/P3+-+Teori+Dasar...å = = + p i 1 y _ ink w0k ziwjk Algoritma Backpropagation nDan menerapkan fungsi

TERIMA KASIH