Download - Jar perceptron

Transcript
Page 1: Jar perceptron
Page 2: Jar perceptron

Model jaringan Perceptron pertama kali dikemukakan oleh Rosenblatt (1962) dan Minsky - Papert (1969).

Metode pelatihan Perceptron lebih kuat dari metode Hebb terutama dalam iterasi yang dapat membuat output dari bobot menjadi konvergen.

Arsitektur jaringan menggunakan single layer. Metode perceptron merupakan pelatihan

supervisi. Algoritma pelatihan perceptron digunakan untuk

biner dan bipolar. Satu siklus pelatihan yang melibatkan seluruh

data input disebut satu epoch.

Page 3: Jar perceptron

Neuron bias terjadi pada simpul yang BUKAN INPUT dengan θ=0 atau tidak ada θ.

Neuron bias adalah simpul yang mengeluarkan nilai 1.

Lambang neuron bias b atau w0.

X1

Xi

Xn

y

1

W1

Wi

Wn

W0...

.

.

.

Page 4: Jar perceptron

Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan sebuah output.

Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear.

X1

Xi

Xn

y

1

W1

W i

Wn

W0...

.

.

.

−<−≤≤−

>=

θθθ

θ

inyif

inyif

inyif

outyf

_1

_0

_1

)_(

Page 5: Jar perceptron

Langkah 1 :Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias dengan angka 0).Set learning rate α (0 < α ≤ 1) (untuk sederhananya, set α dengan angka 1)

Langkah 2:Selama ada elemen vektor masukan yang respon unit keluarannya tidak sama dengan target, lakukan :

a : set aktivasi dari unit input : xi = si

b : hitung respon untuk unit output :

∑=

+=n

iiiwxbiny

1

_

−<−≤≤−

>=

θθθ

θ

inyif

inyif

inyif

inyf

_1

_0

_1

)_(

Page 6: Jar perceptron

c. perbaiki bobot dan bias, jika terjadi kesalahan pada pola ini :jika y ≠ t, maka ∆w = α*t*xi

wi (baru) = wi (lama) + ∆w dengan ∆w = α * xi * t b(baru) =b(lama) + ∆ b dengan ∆b = α * t

jika tidak, makac. wi (baru) = wi (lama) d. b(baru) = b(lama)

Jika masih ada bobot yang berubah maka kondisi dilanjutkan atau target sama dengan keluaran, jika tidak maka proses berhenti.

Page 7: Jar perceptron

Contoh Soal 2.1Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran biner. Pilih α = 1 dan θ = 0,2

Jawab :

x1 x2 t

0 0 -10 1 -11 0 -11 1 1

∑ f

w1

w2

x1

x2

n a

1

b

Pola hubungan masukan-target :

Page 8: Jar perceptron

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 1 0 0 00 0 1 -10 1 1 -11 0 1 -11 1 1 1

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 20 0 1 -10 1 1 -11 0 1 -11 1 1 1

Page 9: Jar perceptron

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 30 0 1 -10 1 1 -11 0 1 -11 1 1 1

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 40 0 1 -10 1 1 -11 0 1 -11 1 1 1

Page 10: Jar perceptron

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 50 0 1 -10 1 1 -11 0 1 -11 1 1 1

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 60 0 1 -10 1 1 -11 0 1 -11 1 1 1

Page 11: Jar perceptron

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 70 0 1 -10 1 1 -11 0 1 -11 1 1 1

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 80 0 1 -10 1 1 -11 0 1 -11 1 1 1

Page 12: Jar perceptron

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 90 0 1 -10 1 1 -11 0 1 -11 1 1 1

Masukan Target Output Perubahan bobot

∆w = αx i t ∆b = α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 1 t n a=f(n) ∆w1 ∆w2 ∆b w1 w2 b

Epoch ke - 100 0 1 -10 1 1 -11 0 1 -11 1 1 1

Page 13: Jar perceptron
Page 14: Jar perceptron

Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama dengan target nya

Page 15: Jar perceptron

Latihan Soal 2.2Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka α = 1 dan θ = 0,1.

Jawab :

x1 x2 x3 t

0 1 1 -11 0 1 -11 1 0 -11 1 1 1

Masukan Target Output Perubahan bobot∆w = αx i t ∆b =

α t

Bobot baruwbaru = w lama +

∆wbbaru = b lama + ∆b

x1 x2 x3 1 t a ∆w1 ∆w2 ∆w3 ∆b w1 w2 w3 b

Inisialisasi 0 0 0 00 1 1 1 -11 0 1 1 -11 1 0 1 -11 1 1 1 1

Page 16: Jar perceptron

Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut :Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan yang sama dengan targetnya (jaringan sudah memahami pola).Perubahan bobot hanya dilakukan pada pola yang mengandung kesalahan (keluaran target ≠ target).Kecepatan iterasi ditentukan oleh laju pemahaman (∝sama dengan 0≤∝≤1) yang dipakai. Semakin besar harga ∝, semakin sedikit iterasi yang diperlukan. Akan tetapi jika ∝ terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat.

Page 17: Jar perceptron

Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb karena :Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan dengan target yang sesungguhnya. Jika terdapat perbedaan, maka bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam setiap iterasinya.Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning rate) yang besarnya bisa diatur.Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola yang ada hingga jaringan dapat mengerti polanya (ditandai dengan samanya semua keluaran jaringan dengan target keluaran yang diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu epoch saja. Teorema konvergensi perceptron menyatakan bahwa apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke bobot yang tepat tersebut.