Jar perceptron

download Jar perceptron

of 17

  • date post

    17-Jul-2015
  • Category

    Travel

  • view

    52
  • download

    0

Embed Size (px)

Transcript of Jar perceptron

  • Model jaringan Perceptron pertama kali dikemukakan oleh Rosenblatt (1962) dan Minsky - Papert (1969).Metode pelatihan Perceptron lebih kuat dari metode Hebb terutama dalam iterasi yang dapat membuat output dari bobot menjadi konvergen.Arsitektur jaringan menggunakan single layer.Metode perceptron merupakan pelatihan supervisi.Algoritma pelatihan perceptron digunakan untuk biner dan bipolar.Satu siklus pelatihan yang melibatkan seluruh data input disebut satu epoch.

  • Neuron bias terjadi pada simpul yang BUKAN INPUT dengan =0 atau tidak ada .Neuron bias adalah simpul yang mengeluarkan nilai 1.Lambang neuron bias b atau w0.

  • Arsitektur Perceptron sederhana adalah terdiri dari beberapa input dan sebuah output.Perceptron biasanya digunakan untuk mengklasifikasikan suatu tipe pola tertentu yang sering dikenal dengan pemisahan secara linear.

  • Langkah 1 :Inisialisasi bobot dan bias (untuk sederhananya, set bobos dan bias dengan angka 0).Set learning rate (0 < 1) (untuk sederhananya, set dengan angka 1)Langkah 2:Selama ada elemen vektor masukan yang respon unit keluarannya tidak sama dengan target, lakukan : a : set aktivasi dari unit input : xi = si b : hitung respon untuk unit output :

  • perbaiki bobot dan bias, jika terjadi kesalahan pada pola ini :jika y t, makaw = *t*xiwi (baru) = wi (lama) + w dengan w = * xi * tb(baru) =b(lama) + b dengan b = * tjika tidak, maka wi (baru) = wi (lama) b(baru) = b(lama)

    Jika masih ada bobot yang berubah maka kondisi dilanjutkan atau target sama dengan keluaran, jika tidak maka proses berhenti.

  • Contoh Soal 2.1Buat jaringan Perceptron untuk menyatakan fungsi logika AND dengan menggunakan masukan biner dan keluaran biner. Pilih = 1 dan = 0,2Jawab : Pola hubungan masukan-target :

    x1x2t00-101-110-1111

  • MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 1000001-1011-1101-11111

    MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 2001-1011-1101-11111

  • MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 3001-1011-1101-11111

    MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 4001-1011-1101-11111

  • MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 5001-1011-1101-11111

    MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 6001-1011-1101-11111

  • MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 7001-1011-1101-11111

    MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 8001-1011-1101-11111

  • MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 9001-1011-1101-11111

    MasukanTargetOutput Perubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + bx1x21tna=f(n)w1w2bw1w2bEpoch ke - 10001-1011-1101-11111

  • Iterasi akan di hentikan pada epoch ke 10 karena fnet sudah sama dengan target nya

  • Latihan Soal 2.2Buat jaringan Perceptron untuk mengenali pola pada tabel di bawah ini. Gunaka = 1 dan = 0,1. Jawab :

    x1x2x3t011-1101-1110-11111

    MasukanTargetOutputPerubahan bobotw = xi t b = tBobot baruwbaru = wlama + wbbaru = blama + b

    x1x2x31taw1w2w3bw1w2w3bInisialisasi00000111-11011-11101-111111

  • Ada beberapa hal yang perlu diperhatikan dalam algoritma tersebut :Iterasi dilakukan terus hingga semua pola memiliki keluaran jaringan yang sama dengan targetnya (jaringan sudah memahami pola).Perubahan bobot hanya dilakukan pada pola yang mengandung kesalahan (keluaran target target).Kecepatan iterasi ditentukan oleh laju pemahaman (sama dengan 01) yang dipakai. Semakin besar harga , semakin sedikit iterasi yang diperlukan. Akan tetapi jika terlalu besar, maka akan merusak pola yang sudah benar sehingga pemahaman menjadi lambat.

  • Algoritma pelatihan perceptron lebih baik dibandingkan model Hebb karena :Setiap kali pola dimasukkan, hasil keluaran jaringan dibandingkan dengan target yang sesungguhnya. Jika terdapat perbedaan, maka bobot akan dimodifikasi. Jadi tidak semua bobot akan dimodifikasi dalam setiap iterasinya.Modifikasi bobot tidak hanya ditentukan oleh perkalian antara target dengan masukan, tapi juga melibatkan suatu laju pemahaman (learning rate) yang besarnya bisa diatur.Pelatihan dilakukan berulang-ulang untuk semua kemungkinan pola yang ada hingga jaringan dapat mengerti polanya (ditandai dengan samanya semua keluaran jaringan dengan target keluaran yang diinginkan). Satu siklus pelatihan yang melibatkan semua pola disebut epoch. Dalam jaringan Hebb, pelatihan hanya dilakukan dalam satu epoch saja. Teorema konvergensi perceptron menyatakan bahwa apabila ada bobot yang tepat, maka proses pelatihan akan konvergen ke bobot yang tepat tersebut.