Pengenalan pola sederhana dg perceptron

30
Arief Fatchul Huda UIN Sunan Gunung Djati Bandung

Transcript of Pengenalan pola sederhana dg perceptron

Arief Fatchul HudaUIN Sunan Gunung Djati Bandung

AgendaPengantarAlgoritmaAplikasi

Pola fungsi logikaPengenalan karakter sederhana

Konvergensi perceptronAdaline

ArsitekturAlgoritmaAplikasiDelta rule

Madeline

PengantarLebih baik dari HebbMenggunakan pengulangan (looping) dalam

memperbaiki bobot (w)Beberapa jenis perceptron dijelaskan dalam tulisan

Rosenblatt (1962) dan Minsky dan Papert (1962, 1988)Menggunakan fungsi aktifasi biner, dengan threshold

sebarang tapi tetap.

Pengantar[2]Perubahan bobot dilakukan pada tiap unit input dari

beberapa unit dalam satu set input.

Jika output yang dihasilkan tidak sesuai dengan output yang seharusnya maka bobot diubah, dan dilakukan pembelajaran lagi.

Arsitektur

Alg

oritm

a

Step view

Input ke-1 Jika Out ≠ target Ubah bobotInput ke-2 Jika Out ≠ target Ubah bobotInput ke-3 Jika Out ≠ target Ubah bobotInput ke-4 Jika Out ≠ target Ubah bobot

Jika masih ada Ubah bobot

Math view Jika tidak ada perubahan bobot maka STOP, selain itu (masih ada perubahan bobot)

Perhitungan

Input ke-2

Input ke-3 dan ke-4

Contoh 2Pola dengan 3 variabel input, dimana Hebb net tidak

bisa menyelesaikan

Pengenalan Karakter

Pengenalan karakter dapat digolongkan :Mengenal satu huruf

saja, misal A dan bukan A B dan bukan B, dst

Mengenal semua huruf Dapat mengenal A, B, C,

D, E, J, dan K sekaligus

Perhatikan

Langkah-langkahPenyajian data,

Data disajikan dalam bentuk biner atau bipolarMembuat arsitektur NN dengan algo perceptron

Input 49 variabelOutput 1 variabel

Mengenal 7 karakter

algo

ritm

a

AdelineAdaptive Linear Neutron [Widrow & Hoff, 1960]Menggunakan bipolar untuk data input dan outputBobot diubah (diperbaiki) berdasarkan perbedaan

output dengan target disebut delta rule atau LMS (least mean square) atau Widrow-Hoff rule

Fungsi aktifasi adalah fungsi identitasTujuan pembelajaran adalah meminimalisasi lms

error antara output dengan target.

Arsitektur

Alg

oritm

a

Laju pembelajaranHecht-neilsen (1990), laju pembelajaran adalah < dari ½

nilai eigen terbesar dari R

Namun, seringkali laju pembelajaran menggunakan nilai yang kecil (misal 0.1) tanpa menghitung matrik R dan nilai eigen

Pemilihan laju terlalu kecil akan memperlambat proses pembelajaran.Untuk neuron tunggal alpha didapatkan

dengan n adalah jumlah var. input

AplikasiSetelah selesai pembelajaran, jika nilai target adalah

bivalent (bipolar atau biner), maka fungsi aktifasi menggunakan step function.

Algoritma

MadelineMany Adaptive Linear Neuron (Many Adaline)

KesimpulanAlgoritma Perceptron mengubah bobot dengan

iterasi, perubahan akan terus dilakukan sampai output jaringan sama dengan target

Perceptron dapat digunakan untuk multiple output, yaitu untuk klasifikasi lebih dari 2 kelas sekaligus

Adeline mengupdate bobot dengan delta ruleMadeline adalah Many Adeline

Alhamdulillah