IV Metode Learning Part 2
-
Upload
yesi-diah-rosita -
Category
Documents
-
view
214 -
download
0
Transcript of IV Metode Learning Part 2
-
8/3/2019 IV Metode Learning Part 2
1/9
UNIM 1
MODUL IVMETODE LEARNING (Part 2)
Kompetensi Dasar : Menempatkan metode learning dalam menyelesaikan suatu
masalah dengan tepat dan baik.
Materi Pokok :
1. Pengertian Metode Learning
2. Macam-macam Metode Learning
3. Contoh penggunaan Metode Learning
4.2.1.1 Iterative Dychotomizer Version 3 (ID3)
ID3 merupkan algoritma Decision Tree Learning yang paling dasar. Algoritma ini
melakukan pencarian secara meyeluruh pada semua kemungkinan keputusan. Algoritma
ID3 ini dapat diimplementasikan dengan menggunakan fungsi rekursif. Fungsi rekursif
merupakan sebuah fungsi yang memanggil dirinya sendiri.
Contoh:
Algoritma rekursif untuk menyelesaikan factorial:SUBRUTIN factorial(n)
JIKA n=0 ATAU 1 MAKA
NILAI-BALIK 1
SEBALIKNYA
NILAI-BALIK nxfaktorial(n-1)
AKHIR-JIKA
AKHIR-SUBRUTIN
Dituangkan dalam Bahasa Pemrograman C++:#include
KECERDASAN BUATAN/ AIOleh:Yesi Diah Rosita, S.Kom.
-
8/3/2019 IV Metode Learning Part 2
2/9
UNIM 2
Long int factorial(unsigned int n)
{
if (n==0 || n==1)
return 1;
else
return n * factorial(n-1);
}
int main()
{
Int n;
long int hasil;
coutn;
hasil=factorial(n);
cout
-
8/3/2019 IV Metode Learning Part 2
3/9
UNIM 3
Buat suatu variable, misal Sampelvi, sebagai himpunanbagian (subset) dari KumpulanSampel yang bernilai vi
pada atribut A
If Sampelvi kosong- Then di bawah cabang ini tambahkan suatu simpul
daun (leaf node, simpul yang tidak mempunyai anak di
bawahnya) dengan label=nilai atribut target yang
paling umum
- Else di bawah cabang ini tambahkan subtree denganmemanggil function ID3(Sampelvi, AtributTarget,
Atribut-{A})
End
End
End
4.Return Root
Sekarang diterapkan function ID3 untuk menemukan Decision Tree yang tepat
tentang penerimaan pegawai seperti pada table 4.1 (Modul IV Part 1), dimana:Kumpulan Sampel atau Sampel Data = [8+,3-]
Atribut Target = Diterima
Kumpulan Atribut = {IPK,Psikolog,Wawancara}
Pada Modul IV Part 1 sudah ditemukan nilai Gain untuk IPK, yakni = 0.0049.
Sekarang menghitung Gain untuk Psikolog dan Wawancara.
Menghitung Information Gain untuk PsikologLihat pada table 4.1. (Modul IV Part 1)
Dimisalkan:
- Atribut Ya dikatakan sampel positif (+)- Atribut Tidak dikatakan sampel negative (-)Diketahui:
- Values(Psikolog) = Tinggi, Sedang, Rendah; maka:- S = [8+,3-]; |S| = 11
STinggi = [3+, 0-]; |STinggi| = 3
-
8/3/2019 IV Metode Learning Part 2
4/9
UNIM 4
SSedang = [4+, 1-]; |SSedang| = 5
SRendah = [1+, 2-]; |SRendah| = 3
Dihitung Information Gain Psikolog:
Entropy(S) = -(8/11)(8/11) -(3/11)(3/11)= 0.8454
Entropy(STinggi) = -(3/3)(3/3) -(1/3)(1/3)
= 0
Entropy(SSedang) = -(4/5)(4/5) -(1/5)(1/5)
= 0.7219
Entropy(SRendah) = -(1/3)(1/3) -(2/3)(2/3)
= 0.9183
Gain(S,Psikolog) = *+
= ( )
()
=0.8454 ((3/11)*0) - ((5/11)*0.7219) - ((3/11)*0.9183)
= 0.8454 0 0.3281 0.2504
= 0.2668
Menghitung Information Gain untuk WawancaraLihat pada table 4.1. (Modul IV Part 1)
Dimisalkan:
- Atribut Ya dikatakan sampel positif (+)- Atribut Tidak dikatakan sampel negative (-)Diketahui:
- Values(Wawancara) = Tinggi, Sedang, Rendah; maka:- S = [8+,3-]; |S| = 11
SBaik = [6+, 0-]; |SBaik| = 6
SBuruk = [2+, 3-]; |SBuruk| = 5
-
8/3/2019 IV Metode Learning Part 2
5/9
UNIM 5
Dihitung Information Gain Wawancara:
Entropy(S) = -(8/11)(8/11) -(3/11)(3/11)= 0.8454
Entropy(SBaik) = -(6/6)(6/6) -(0/6)/6)= 0
Entropy(SBuruk) = -(2/5)/5) -(3/5)(3/5)
= 0.9710
Gain(S,Wawancara) = *+
=
=0.8454 ((6/11)*0) - ((5/11)*0.9710))
= 0.8454 0 0.4413
= 0.4040
Dari ketiga nilai Information Gain di atas dapat disimpulkan bahwa nilai Gain untuk
Wawancara yang merupakan nilai terbesar (0.4040), selanjutnya Gain untuk Psikolog
(0.2668) kemudian IPK (0.0049). Maka dalam hal ini Atribut Wawancara-lah yang sebagi
Root. Selanjutnya apakah Atribut Wawancara mempunyai subtree apa tidak? Ternyata
Atribut Wawancara mempunyai subtree Baik, sehingga perlu memanggil function ID3
dengan:
Kumpulan Sampel atau Sampel Data = [6+,0-]
Atribut Target = Diterima
Kumpulan Atribut = {IPK,Psikolog}
Dari hal ini dapat diperoleh struktur pohon seperti ada gambar 5.1.
Gambar 5.1 Pohon keputusan yang dihasilkan pada rekursi Level 0 Iterasi ke-1
Wawancara
Baik
-
8/3/2019 IV Metode Learning Part 2
6/9
UNIM 6
Karena semua sampel pada SampelBaiktermasuk dalam kelas Ya, maka fungsi ini akanberhenti dan mengembalikan satu simpul tunggal Root dengan label Ya. LIhat pada
gambar 5.2!
Gambar 5.2 Pohon keputusan yang dihasilkan pada rekursi Level 1 Iterasi ke-1
Setelah itu dilakukan pengecekan terhadap Atribut Wawancara apakah selain
subtree Baik masih ada subtree lainnya? Ternyata ada subtree Buruk, sehingga perlu
memanggil function ID3dengan:
Kumpulan Sampel atau Sampel Data = [2+,3-]
Atribut Target = Diterima
Kumpulan Atribut = {IPK,Psikolog}
Dari hal ini dapat diperoleh struktur pohon seperti ada gambar 5.3.
Gambar 5.3 Pohon keputusan yang dihasilkan pada rekursi Level 0 Iterasi ke-2
Pada tahap ini dilakukan perhitungan Information Gain untuk atribut IPK dan
Psikolog. Tetapi KumpulanSampel yang diperhitungkan adalah SampelBuruk dengan 5
sampel data [2+,3-], dengan kata lain S= SampelBuruk.
- Values(IPK) = Bagus, Cukup, Kurang; maka:- S = [2+,3-]; |S| = 5
Baik
Wawancara
Ya
Baik
Wawancara
Ya
Buruk
-
8/3/2019 IV Metode Learning Part 2
7/9
UNIM 7
SBagus = [1+, 1-]; |SBagus| = 2
SCukup = [1+, 1-]; |SCukup| = 2
SKurang = [0+, 1-]; |SKurang| = 1
Selanjutnya dihitung nilai-nilia entropy untuk S, SBagus, SKurang, SCukup, dan Information
Gain IPK:
Entropy(S) = -(2/5)(2/5) -(3/5)(3/5)= 0.9710
Entropy(SBagus) = -(1/2)(1/2) -(1/2)(1/2)
= 1
Entropy(SCukup) = -(1/2)(1/2) -(1/2)(1/2)
= 1
Entropy(SKurang) = -(0/1)(0/1) -(1/1)(1/1)
= 0
Jadi, Gain(S,IPK) = *+
= ( ) ( )
( )
=0.9710 ((2/5)*1) - ((2/5)*1) ((1/1)*0)
= 0.9710 0.4 - 0.4 0
= 0.1710
Selanjutnya menghitung Information Gain untuk atribut Psikolog dengan
kumpulanSampel-nya adalah SampelBuruk dengan 5 sampel data [2+,3-], dengan kata lain
S= SampelBuruk.
- Values(Psikolog) = Tinggi, Sedang, Rendah; maka:- S = [2+,3-]; |S| = 5
STinggi = [0+, 0-]; |STinggi| = 0
SSedang = [2+, 1-]; |SSedang| = 3
SRendah = [0+, 2-]; |SRendah|= 2
-
8/3/2019 IV Metode Learning Part 2
8/9
UNIM 8
Selanjutnya dihitung nilai-nilia entropy untuk S, SBagus, SKurang, SCukup, dan Information
Gain Psikolog:
Entropy(S) = -(2/5)(2/5) -(3/5)(3/5)= 0.9710
Entropy(STinggi) = -(0/0)(0/0) -(0/0)(0/0)
= 0
Entropy(SSedang) = -(2/3)(2/3) -(1/3)(1/3)
= 0.9183
Entropy(SRendah) = -(0/2)(0/2) -(2/2)(2/2)
= 0
Jadi, Gain(S,Psikolog) = *+
= ( )
( )
=0.9710 ((0/5)*0) - ((3/5)*0.9183) ((2/5)*0)
= 0.9710 0 0.5509 0
= 0.4200
-
8/3/2019 IV Metode Learning Part 2
9/9
UNIM 9
Dari hasil perhitungan entropy di atas, yakni entropy untuk Atribut IPK dan entropy
untuk Atribut Psikolog, dapat disimpulkan bahwa Atribut Psikolog (0.4200) lebih besar
dari pada Atribut IPK (0.1710). Oleh karena itu Atribut Psikolog menjadi the best classifier
yang harus diletakkan sebagai simpul dibawah simpul Wawancara pada cabang nilai
Buruk. Untuk KumpulanSampel berupa SampelBuruk, ternyata Atribut Psikolog yang
mempunyai atribut Diterima adalah SampelSedang dan SampelRendah. Untuk
SampelRendah hanya mempunyai nilai Tidak pada atribut Diterima (simpul berhenti/
fungsi berhenti dan akan mengembalikan satu simpul tunggal Root pada label Tidak),
sedangkan SampelSedang mempunyai nilai Ya dan Tidak, oleh karena itu perlu
memanggil function ID3 lagi. Lihat struktur pohon seperti ada gambar 5.4.
Gambar 5.4 Pohon keputusan yang dihasilkan pada rekursi Level 1 Iterasi ke-2
Selanjutnya untuk KumpulanSampel SampelSedang???
Baik
Wawancara
Ya
Buruk
Sedang Rendah
Tidak
Psikolog