IV Metode Learning Part 2

download IV Metode Learning Part 2

of 9

Transcript of IV Metode Learning Part 2

  • 8/3/2019 IV Metode Learning Part 2

    1/9

    UNIM 1

    MODUL IVMETODE LEARNING (Part 2)

    Kompetensi Dasar : Menempatkan metode learning dalam menyelesaikan suatu

    masalah dengan tepat dan baik.

    Materi Pokok :

    1. Pengertian Metode Learning

    2. Macam-macam Metode Learning

    3. Contoh penggunaan Metode Learning

    4.2.1.1 Iterative Dychotomizer Version 3 (ID3)

    ID3 merupkan algoritma Decision Tree Learning yang paling dasar. Algoritma ini

    melakukan pencarian secara meyeluruh pada semua kemungkinan keputusan. Algoritma

    ID3 ini dapat diimplementasikan dengan menggunakan fungsi rekursif. Fungsi rekursif

    merupakan sebuah fungsi yang memanggil dirinya sendiri.

    Contoh:

    Algoritma rekursif untuk menyelesaikan factorial:SUBRUTIN factorial(n)

    JIKA n=0 ATAU 1 MAKA

    NILAI-BALIK 1

    SEBALIKNYA

    NILAI-BALIK nxfaktorial(n-1)

    AKHIR-JIKA

    AKHIR-SUBRUTIN

    Dituangkan dalam Bahasa Pemrograman C++:#include

    KECERDASAN BUATAN/ AIOleh:Yesi Diah Rosita, S.Kom.

  • 8/3/2019 IV Metode Learning Part 2

    2/9

    UNIM 2

    Long int factorial(unsigned int n)

    {

    if (n==0 || n==1)

    return 1;

    else

    return n * factorial(n-1);

    }

    int main()

    {

    Int n;

    long int hasil;

    coutn;

    hasil=factorial(n);

    cout

  • 8/3/2019 IV Metode Learning Part 2

    3/9

    UNIM 3

    Buat suatu variable, misal Sampelvi, sebagai himpunanbagian (subset) dari KumpulanSampel yang bernilai vi

    pada atribut A

    If Sampelvi kosong- Then di bawah cabang ini tambahkan suatu simpul

    daun (leaf node, simpul yang tidak mempunyai anak di

    bawahnya) dengan label=nilai atribut target yang

    paling umum

    - Else di bawah cabang ini tambahkan subtree denganmemanggil function ID3(Sampelvi, AtributTarget,

    Atribut-{A})

    End

    End

    End

    4.Return Root

    Sekarang diterapkan function ID3 untuk menemukan Decision Tree yang tepat

    tentang penerimaan pegawai seperti pada table 4.1 (Modul IV Part 1), dimana:Kumpulan Sampel atau Sampel Data = [8+,3-]

    Atribut Target = Diterima

    Kumpulan Atribut = {IPK,Psikolog,Wawancara}

    Pada Modul IV Part 1 sudah ditemukan nilai Gain untuk IPK, yakni = 0.0049.

    Sekarang menghitung Gain untuk Psikolog dan Wawancara.

    Menghitung Information Gain untuk PsikologLihat pada table 4.1. (Modul IV Part 1)

    Dimisalkan:

    - Atribut Ya dikatakan sampel positif (+)- Atribut Tidak dikatakan sampel negative (-)Diketahui:

    - Values(Psikolog) = Tinggi, Sedang, Rendah; maka:- S = [8+,3-]; |S| = 11

    STinggi = [3+, 0-]; |STinggi| = 3

  • 8/3/2019 IV Metode Learning Part 2

    4/9

    UNIM 4

    SSedang = [4+, 1-]; |SSedang| = 5

    SRendah = [1+, 2-]; |SRendah| = 3

    Dihitung Information Gain Psikolog:

    Entropy(S) = -(8/11)(8/11) -(3/11)(3/11)= 0.8454

    Entropy(STinggi) = -(3/3)(3/3) -(1/3)(1/3)

    = 0

    Entropy(SSedang) = -(4/5)(4/5) -(1/5)(1/5)

    = 0.7219

    Entropy(SRendah) = -(1/3)(1/3) -(2/3)(2/3)

    = 0.9183

    Gain(S,Psikolog) = *+

    = ( )

    ()

    =0.8454 ((3/11)*0) - ((5/11)*0.7219) - ((3/11)*0.9183)

    = 0.8454 0 0.3281 0.2504

    = 0.2668

    Menghitung Information Gain untuk WawancaraLihat pada table 4.1. (Modul IV Part 1)

    Dimisalkan:

    - Atribut Ya dikatakan sampel positif (+)- Atribut Tidak dikatakan sampel negative (-)Diketahui:

    - Values(Wawancara) = Tinggi, Sedang, Rendah; maka:- S = [8+,3-]; |S| = 11

    SBaik = [6+, 0-]; |SBaik| = 6

    SBuruk = [2+, 3-]; |SBuruk| = 5

  • 8/3/2019 IV Metode Learning Part 2

    5/9

    UNIM 5

    Dihitung Information Gain Wawancara:

    Entropy(S) = -(8/11)(8/11) -(3/11)(3/11)= 0.8454

    Entropy(SBaik) = -(6/6)(6/6) -(0/6)/6)= 0

    Entropy(SBuruk) = -(2/5)/5) -(3/5)(3/5)

    = 0.9710

    Gain(S,Wawancara) = *+

    =

    =0.8454 ((6/11)*0) - ((5/11)*0.9710))

    = 0.8454 0 0.4413

    = 0.4040

    Dari ketiga nilai Information Gain di atas dapat disimpulkan bahwa nilai Gain untuk

    Wawancara yang merupakan nilai terbesar (0.4040), selanjutnya Gain untuk Psikolog

    (0.2668) kemudian IPK (0.0049). Maka dalam hal ini Atribut Wawancara-lah yang sebagi

    Root. Selanjutnya apakah Atribut Wawancara mempunyai subtree apa tidak? Ternyata

    Atribut Wawancara mempunyai subtree Baik, sehingga perlu memanggil function ID3

    dengan:

    Kumpulan Sampel atau Sampel Data = [6+,0-]

    Atribut Target = Diterima

    Kumpulan Atribut = {IPK,Psikolog}

    Dari hal ini dapat diperoleh struktur pohon seperti ada gambar 5.1.

    Gambar 5.1 Pohon keputusan yang dihasilkan pada rekursi Level 0 Iterasi ke-1

    Wawancara

    Baik

  • 8/3/2019 IV Metode Learning Part 2

    6/9

    UNIM 6

    Karena semua sampel pada SampelBaiktermasuk dalam kelas Ya, maka fungsi ini akanberhenti dan mengembalikan satu simpul tunggal Root dengan label Ya. LIhat pada

    gambar 5.2!

    Gambar 5.2 Pohon keputusan yang dihasilkan pada rekursi Level 1 Iterasi ke-1

    Setelah itu dilakukan pengecekan terhadap Atribut Wawancara apakah selain

    subtree Baik masih ada subtree lainnya? Ternyata ada subtree Buruk, sehingga perlu

    memanggil function ID3dengan:

    Kumpulan Sampel atau Sampel Data = [2+,3-]

    Atribut Target = Diterima

    Kumpulan Atribut = {IPK,Psikolog}

    Dari hal ini dapat diperoleh struktur pohon seperti ada gambar 5.3.

    Gambar 5.3 Pohon keputusan yang dihasilkan pada rekursi Level 0 Iterasi ke-2

    Pada tahap ini dilakukan perhitungan Information Gain untuk atribut IPK dan

    Psikolog. Tetapi KumpulanSampel yang diperhitungkan adalah SampelBuruk dengan 5

    sampel data [2+,3-], dengan kata lain S= SampelBuruk.

    - Values(IPK) = Bagus, Cukup, Kurang; maka:- S = [2+,3-]; |S| = 5

    Baik

    Wawancara

    Ya

    Baik

    Wawancara

    Ya

    Buruk

  • 8/3/2019 IV Metode Learning Part 2

    7/9

    UNIM 7

    SBagus = [1+, 1-]; |SBagus| = 2

    SCukup = [1+, 1-]; |SCukup| = 2

    SKurang = [0+, 1-]; |SKurang| = 1

    Selanjutnya dihitung nilai-nilia entropy untuk S, SBagus, SKurang, SCukup, dan Information

    Gain IPK:

    Entropy(S) = -(2/5)(2/5) -(3/5)(3/5)= 0.9710

    Entropy(SBagus) = -(1/2)(1/2) -(1/2)(1/2)

    = 1

    Entropy(SCukup) = -(1/2)(1/2) -(1/2)(1/2)

    = 1

    Entropy(SKurang) = -(0/1)(0/1) -(1/1)(1/1)

    = 0

    Jadi, Gain(S,IPK) = *+

    = ( ) ( )

    ( )

    =0.9710 ((2/5)*1) - ((2/5)*1) ((1/1)*0)

    = 0.9710 0.4 - 0.4 0

    = 0.1710

    Selanjutnya menghitung Information Gain untuk atribut Psikolog dengan

    kumpulanSampel-nya adalah SampelBuruk dengan 5 sampel data [2+,3-], dengan kata lain

    S= SampelBuruk.

    - Values(Psikolog) = Tinggi, Sedang, Rendah; maka:- S = [2+,3-]; |S| = 5

    STinggi = [0+, 0-]; |STinggi| = 0

    SSedang = [2+, 1-]; |SSedang| = 3

    SRendah = [0+, 2-]; |SRendah|= 2

  • 8/3/2019 IV Metode Learning Part 2

    8/9

    UNIM 8

    Selanjutnya dihitung nilai-nilia entropy untuk S, SBagus, SKurang, SCukup, dan Information

    Gain Psikolog:

    Entropy(S) = -(2/5)(2/5) -(3/5)(3/5)= 0.9710

    Entropy(STinggi) = -(0/0)(0/0) -(0/0)(0/0)

    = 0

    Entropy(SSedang) = -(2/3)(2/3) -(1/3)(1/3)

    = 0.9183

    Entropy(SRendah) = -(0/2)(0/2) -(2/2)(2/2)

    = 0

    Jadi, Gain(S,Psikolog) = *+

    = ( )

    ( )

    =0.9710 ((0/5)*0) - ((3/5)*0.9183) ((2/5)*0)

    = 0.9710 0 0.5509 0

    = 0.4200

  • 8/3/2019 IV Metode Learning Part 2

    9/9

    UNIM 9

    Dari hasil perhitungan entropy di atas, yakni entropy untuk Atribut IPK dan entropy

    untuk Atribut Psikolog, dapat disimpulkan bahwa Atribut Psikolog (0.4200) lebih besar

    dari pada Atribut IPK (0.1710). Oleh karena itu Atribut Psikolog menjadi the best classifier

    yang harus diletakkan sebagai simpul dibawah simpul Wawancara pada cabang nilai

    Buruk. Untuk KumpulanSampel berupa SampelBuruk, ternyata Atribut Psikolog yang

    mempunyai atribut Diterima adalah SampelSedang dan SampelRendah. Untuk

    SampelRendah hanya mempunyai nilai Tidak pada atribut Diterima (simpul berhenti/

    fungsi berhenti dan akan mengembalikan satu simpul tunggal Root pada label Tidak),

    sedangkan SampelSedang mempunyai nilai Ya dan Tidak, oleh karena itu perlu

    memanggil function ID3 lagi. Lihat struktur pohon seperti ada gambar 5.4.

    Gambar 5.4 Pohon keputusan yang dihasilkan pada rekursi Level 1 Iterasi ke-2

    Selanjutnya untuk KumpulanSampel SampelSedang???

    Baik

    Wawancara

    Ya

    Buruk

    Sedang Rendah

    Tidak

    Psikolog