Analisis komponen utama (Principal Component Analysis)

8
Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010 1 Analisis Komponen Utama (Principal component analysis) A. LANDASAN TEORI Misalkan merupakan matriks berukuran , dengan baris-baris yang berisi observasi sebanyak dari -variat variabel acak . Analisis komponen utama merupakan salah satu metode untuk mereduksi dimensi dari variabel acak . Reduksi dimensi dilakukan dengan mendefinisikan p-variat variabel acak baru dimana masing masing , = 1, โ€ฆ , merupakan kombinasi linear dari p-variat variabel acak , sehingga informasi yang dimiliki oleh p-variat variabel acak tetap termuat pada masing-masing anggota dari p-variat variabel acak baru . Dengan demikian, dapat kita pilih beberapa anggota dari p-variat variabel acak sebagai bentuk reduksi dari p-variat variabel acak tanpa menghilangkan terlalu banyak informasi. Proses pendefinisian p-varait variabel acak sering disebut juga pembobotan, dimana: = ฮค = =1 , = 1, โ€ฆ . sehingga 2 =1 =1 Dengan =( 1 , 2 , โ€ฆ , ) ฮค dan =( 1 , 2 , โ€ฆ , ) ฮค . ( disebut dengan vektor pembobotan) Agar variabel acak baru mampu mewakili variasi dari -variat variabel acak , akan dipilih arah-arah sehingga ฮค memiliki variansi yang besar: ฮค = : =1 ฮค : =1 = ฮค ( โˆ’) ( โˆ’) =1 : =1 = (( โˆ’). ) 2 =1 [ : =1] Dapat dilihat dari persamaan diatas bahwa memaksimumkan variansi dari ฮค sama saja dengan memaksimumkan jumlahan dari kuadrat panjang proyeksi ( โˆ’) pada . Dari ilustrasi gambar di samping, karena jarak ke pusat ordinat selalu konstan, dapat disimpulkan bahwa memaksimumkan jumlahan kuadrat panjang proyeksi sama saja dengan meminimumkan jarak antara titik yang akan diproyeksikan ( โˆ’) dengan vektor . Hal ini lah yang membedakan konsep dari Principal Component analisis dengan regresi. Untuk lebih jelasnya dapat dilihat pada gambar berikut. PCA Regresi Ket: adalah panjang garis yang diminimumkan

description

Penerapan analisis komponen utama pada data nilai (disertai interpretasi)

Transcript of Analisis komponen utama (Principal Component Analysis)

Page 1: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

1

Analisis Komponen Utama

(Principal component analysis)

A. LANDASAN TEORI

Misalkan ๐œ’ merupakan matriks berukuran ๐‘›๐‘ฅ๐‘, dengan baris-baris yang berisi observasi sebanyak ๐‘›

dari ๐‘-variat variabel acak ๐‘‹. Analisis komponen utama merupakan salah satu metode untuk mereduksi

dimensi dari variabel acak ๐‘‹. Reduksi dimensi dilakukan dengan mendefinisikan p-variat variabel acak baru

๐‘Œ dimana masing masing ๐‘Œ๐‘– , ๐‘– = 1, โ€ฆ , ๐‘ merupakan kombinasi linear dari p-variat variabel acak ๐‘‹,

sehingga informasi yang dimiliki oleh p-variat variabel acak ๐‘‹ tetap termuat pada masing-masing anggota

dari p-variat variabel acak baru ๐‘Œ. Dengan demikian, dapat kita pilih beberapa anggota dari p-variat variabel

acak ๐‘Œ sebagai bentuk reduksi dari p-variat variabel acak ๐‘‹ tanpa menghilangkan terlalu banyak informasi.

Proses pendefinisian p-varait variabel acak ๐‘Œ sering disebut juga pembobotan, dimana:

๐‘Œ๐‘– = ๐›ฟฮค๐‘‹ = ๐›ฟ๐‘—

๐‘

๐‘—=1

๐‘‹๐‘— , ๐‘– = 1, โ€ฆ . ๐‘ sehingga ๐›ฟ๐‘—2

๐‘

๐‘—=1

= 1

Dengan ๐‘‹ = (๐‘‹1 ,๐‘‹2 , โ€ฆ , ๐‘‹๐‘)ฮค dan ๐›ฟ = (๐›ฟ1 , ๐›ฟ2 , โ€ฆ , ๐›ฟ๐‘)ฮค . (๐›ฟ disebut dengan vektor pembobotan)

Agar variabel acak baru ๐‘Œ mampu mewakili variasi dari ๐‘-variat variabel acak ๐‘‹ , akan dipilih arah-arah ๐›ฟ

sehingga ๐›ฟฮค๐‘‹ memiliki variansi yang besar:

๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค๐‘‹ = ๐›ฟ : ๐›ฟ =1 ๐‘š๐‘Ž๐‘ฅ ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ ๐›ฟ: ๐›ฟ =1

๐‘š๐‘Ž๐‘ฅ = ๐›ฟฮค (๐‘ฅ๐‘– โˆ’ ๐œ‡)๐‘‡(๐‘ฅ๐‘– โˆ’ ๐œ‡)๐‘›

๐‘–=1 ๐›ฟ ๐›ฟ : ๐›ฟ =1

๐‘š๐‘Ž๐‘ฅ

= ((๐‘ฅ๐‘– โˆ’ ๐œ‡). ๐›ฟ)2

๐‘›

๐‘–=1

[๐›ฟ : ๐›ฟ =1]๐‘š๐‘Ž๐‘ฅ

Dapat dilihat dari persamaan diatas bahwa memaksimumkan variansi dari ๐›ฟฮค๐‘‹ sama saja dengan

memaksimumkan jumlahan dari kuadrat panjang proyeksi (๐‘ฅ๐‘– โˆ’ ๐œ‡) pada ๐›ฟ.

Dari ilustrasi gambar di samping, karena jarak ke pusat ordinat selalu

konstan, dapat disimpulkan bahwa memaksimumkan jumlahan

kuadrat panjang proyeksi sama saja dengan meminimumkan jarak

antara titik yang akan diproyeksikan (๐‘ฅ๐‘– โˆ’ ๐œ‡) dengan vektor ๐›ฟ. Hal

ini lah yang membedakan konsep dari Principal Component analisis

dengan regresi. Untuk lebih jelasnya dapat dilihat pada gambar

berikut.

PCA Regresi

Ket: adalah panjang garis yang diminimumkan

Page 2: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

2

Sumber: http://www.cerebralmastication.com/2010/09/principal-component-analysis-pca-vs-ordinary-

least-squares-ols-a-visual-explination/

Dari persamaan yang telah dipaparkan sebelumnya, memaksimumkan variansi dari proyeksi, yaitu

๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค๐‘‹ sama saja dengan memaksimumkan nilai dari ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ. Untuk memaksimumkan nilai dari

๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟ, kita gunakan teorema berikut:

Teorema

Jika ๐ด dan ๐ต merupakan matriks simetri, dan ๐ต > 0, maka nilai maksimum dari ๐‘ฅ๐‘‡๐ด ๐‘ฅ

๐‘ฅ๐‘‡๐ต ๐‘ฅ diberikan oleh nilai

eigen terbesar dari ๐ตโˆ’1๐ด. Secara umum,

max๐‘ฅ๐‘‡๐ด ๐‘ฅ

๐‘ฅ๐‘‡๐ต ๐‘ฅ= ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ†๐‘ = min

๐‘ฅ๐‘‡๐ด ๐‘ฅ

๐‘ฅ๐‘‡๐ต ๐‘ฅ

Dimana ๐œ†1 ,๐œ†2 ,โ€ฆ , ๐œ†๐‘ menotasikan nilai eigen dari ๐ตโˆ’1๐ด. Vektor yang meminimumkan (memaksimumkan)

๐‘ฅ๐‘‡๐ด ๐‘ฅ

๐‘ฅ๐‘‡๐ต ๐‘ฅ merupakan vektor eigen dari ๐ตโˆ’1๐ด yang memiliki nilai eigen terkecil (terbesar). Jika ๐‘ฅ๐‘‡๐ต ๐‘ฅ = 1, maka:

max ๐‘ฅ๐‘‡๐ด ๐‘ฅ = ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ†๐‘ = min๐‘ฅ๐‘‡๐ด ๐‘ฅ

Berdasarkan teorema diatas, karena ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ merupakan matriks simetri, maka nilai dari ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค

yang terbesar sama dengan nilai eigen value terbesar dari matriks kovariansi = ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ . Secara umum:

= ฮ“ ฮ› ฮ“๐‘‡ = ๐œ†๐‘—๐›พ๐‘—๐›พ๐‘—๐‘‡

๐‘

๐‘—=1

ฮ› = ๐‘‘๐‘–๐‘Ž๐‘”๐‘œ๐‘›๐‘Ž๐‘™(๐œ†1 ,๐œ†2 , ๐œ†3 ,โ€ฆ , ๐œ†๐‘)

ฮ“ = (ฮณ1 , ฮณ2 ,โ€ฆ , ฮณp )

max ๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค = ๐œ†1 โ‰ฅ ๐œ†2 โ‰ฅ โ‹ฏ โ‰ฅ ๐œ†๐‘ = min๐›ฟฮค ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ ๐›ฟฮค

,sehingga arah ๐›ฟ yang memberikan nilai ๐‘‰๐‘Ž๐‘Ÿ ๐›ฟฮค๐‘‹ terbesar ialah vektor eigen dari ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ dengan nilai

eigen terbesar dimana vektor eigen tersebut merupakan vektor kolom dari ฮ“. Matriks ๐‘‰๐‘Ž๐‘Ÿ ๐‘‹ bersifat semi

definit positif sehingga nilai eigennya tidak mungkin negatif. Pada bidang aljabar, proses diatas serupa

dengan mengubah basis baku menjadi basis vektor eigen dengan vektor eigen sebagai matriks perubahan

basis. Jika nilai lambda tidak ada yang sama, maka vektor eigen yang terbentuk merupakan basis

orthonormal, yaitu vektor-vektor yang saling tegak lurus dengan masing-masing vektor memiliki panjang 1

unit.

Catatan: Principal component analysis dihitung melalui matriks kovariansinya, maka seperti halnya matriks

kovariansi, nilainya akan bergantung pada satuan yang digunakan.

B. Aplikasi Analisis Komponen Utama pada Data Nilai Mahasiswa

Berikut ialah contoh aplikasi analisis komponen utama pada data nilai wisudawan matematika

angkatan 2007 (Data dapat dilihat pada bagian lampiran). ๐œ’ merupakan matriks berukuran ๐‘›๐‘ฅ๐‘, dengan ๐‘›

merupakan jumlah mahasiswa (101 mahasiswa) dan ๐‘ merupakan jumlah mata kuliah (14 mata kuliah).

Baris-baris matriks ๐œ’ berisi nilai masing-masing mahasiswa untuk ke 14 mata kuliah. Kita Definisikan 14-

variat variabel acak ๐‘‹ sebagai berikut:

๐‘‹1 =nilai Fisika I A ๐‘‹8 = nilai Kalkulus Peubah Banyak

๐‘‹2 = nilai Kalkulus IA ๐‘‹9 = nilai Komputasi Matematika

๐‘‹3 =nila Fisika II A ๐‘‹10 = nilai Metode Matematika

๐‘‹4 =nilai Kalkulus II A ๐‘‹11 = nilai Pengantar Analisis Kompleks

Page 3: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

3

๐‘‹5 = nilai Aljabar Linier Elementer A ๐‘‹12 = nilai Matematika Numerik

๐‘‹6 = nilai Matematika Diskrit ๐‘‹13 = nilai Teori Peluang

๐‘‹7 = nilai Analisis Data ๐‘‹14 = nilai Pengantar Analisis Real

Langkah-langkah yang harus dilakukan untuk mencari reduksi variabel menggunakan analisis komponen

utama ialah sebagai berikut:

1. Mencari matriks kovariansi empirik dari 14-variat variabel acak ๐‘ฟ yaitu = ๐‘ฝ๐’‚๐’“ ๐‘ฟ .

Matriks Kovariansi empirik ialah matriks yang nilai-nilai kovariansi pada tiap cell-nya diperoleh

dari sampel. Misalkan Y dan Z ialah variabel acak, maka:

๐‘๐‘œ๐‘ฃ ๐‘Œ, ๐‘ =1

๐‘› (๐‘ฆ๐‘– โˆ’ ๐‘ฆ )(๐‘ง๐‘– โˆ’ ๐‘ง )

๐‘›

๐‘–=1

Dengan ๐‘ฆ dan ๐‘ง merupakan rataan sampel dari variabel Y dan Z, dan ๐‘ฆ๐‘– dan ๐‘ง๐‘– merupakan nilai

observasi ke-i dari variabel Y dan Z. Pembagian dengan n digunakan karena jumlah sampel yang

dimiliki lebih dari 20. Dari data nilai yang digunakan, diperoleh matriks kovariansi berukuran

14x14.

2. Mencari nilai eigen dan vektor eigen dari matriks kovariansi empirik yang telah diperoleh.

Nilai eigen dan vektor eigen dapat dihitung menggunakan program matlab. Nilai eigen diurutkan

mulai dari nilai yang terbesar hingga terkecil. Matriks yang kolom-kolomnya berisi vektor eigen dari

nilai eigen terkait disesuaikan urutannya berdasarkan nilai eigen yang telah urut. Dengan

menggunakan algoritmat matlab , diperoleh 14 nilai-nilai eigen yang telah diurutkan,yaitu :

๐ธ๐‘–๐‘”๐‘’๐‘› = (3.4970 , 0.6452 , 0.5314 , 0.4311 , 0.3915 , 0.3630 , 0.3450 , 0.2437 , 0.2171 , 0.2046

, 0.1771 , 0.1380 , 0.1213 , 0.0936)

Masing-masing variabel baru ๐‘Œ๐‘– yang terbentuk memiliki variansi yang besarnya sama dengan nilai

eigen yang terkait dengan vektor eigen pembentuknya. Grafik diatas ditampilkan untuk

memperjelas penurunan variansi (nilai eigen) yang terjadi.

3. Menghitung proporsi variansi masing-masing PC beserta nilai akumulasi untuk q-PC pertama.

Ukuran seberapa baik q -PC pertama mampu menjelaskan variansi diberikan melalui proporsi

relatif ๐œ“๐‘ž = ๐œ†๐‘—

๐‘ž๐‘—=1

๐œ†๐‘—๐‘๐‘—=1

. Tabel dibawah ini memperlihatkan proporsi variansi dari masing-masing PC

serta nilai akumulasinya jika kita menggunakan q-PC pertama.

Page 4: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

4

Pemilihan banyak PC yang akan digunakan tergantung dari kebutuhan. Dapat kita lihat bahwa 2

PC saja mampu menyerap variansi sebesar 56%, apabila persentasi ini dirasa cukup, dapat kita

gunakan 2 PC yang ada. Pemilihan 2 hingga 3 PC lebih sering dilakukan untuk mempermudah

visualisasi.

Apabila kita menginginkan jumlah PC yang lebih dari 50 persen dan memberikan akumulasi

variansi yang cukup signifikan,maka dapat kita lihat melalui kecuraman ( gradien) dari grafik

akumulasi variansi q-PC. Digunakan garis-garis linier untuk mempermudah visualisasi perubahan

gradien yang terjadi. Semakin landai gradien antara 2 titik yang ada, maka semakin kecil perubahan

akumulasi variansi yang dijelaskan.

Dari plot diatas, dapat dilihat bahwa pemilihan 3 PC dapat dibilang cukup baik karena viualisasi

yang mudah serta nilai pertambahan akumulasi PC yang signifikan. Pemilihan 3 PC mampu

menjelaskan 63% variansi dibandingkan dengan apabila kita menggunakan 14 PC yang ada.

4. Interpretasi Hasil dari Analisis Komponen Utama

Untuk mempermudah visualisasi dan interpretasi, maka kita pilih 2-PC dengan nilai eigen

terbesar. Berikut disajikan hasil PC pertama (๐‘Œ1) dan kedua (๐‘Œ2) dari data nilai yang telah

dipaparkan diatas:

๐‘Œ1 =

0.0675 nilai Fisika I A + 0.1866 nilai Kalkulus IA + 0.0735 nilai Fisika II A +

0.1595 nilai Kalkulus II A + 0.2872 nilai Aljabar Linier Elementer A +

0.3110 nilai Matematika Diskrit + 0.2396 nilai Analisis Data +

๐ŸŽ. ๐Ÿ‘๐Ÿ”๐Ÿ“๐Ÿ— ๐’๐’Š๐’๐’‚๐’Š ๐‘ฒ๐’‚๐’๐’Œ๐’–๐’๐’–๐’” ๐‘ท๐’†๐’–๐’ƒ๐’‚๐’‰ ๐‘ฉ๐’‚๐’๐’š๐’‚๐’Œ + 0.1915 nilai Komputasi Matematika +

0.3303 nilai Metode Matematika + ๐ŸŽ. ๐Ÿ‘๐Ÿ–๐Ÿ“๐Ÿ– ๐’๐’Š๐’๐’‚๐’Š ๐‘ท๐’†๐’๐’ˆ๐’‚๐’๐’•๐’‚๐’“ ๐‘จ๐’๐’‚๐’๐’Š๐’”๐’Š๐’” ๐‘ฒ๐’๐’Ž๐’‘๐’๐’†๐’Œ๐’” +

0.3215 nilai Matematika Numerik + ๐ŸŽ. ๐Ÿ‘๐Ÿ“๐Ÿ‘๐Ÿ” ๐ง๐ข๐ฅ๐š๐ข ๐“๐ž๐จ๐ซ๐ข ๐๐ž๐ฅ๐ฎ๐š๐ง๐  +

0.1908 nilai Pengantar Analisis Real

Nilai dari ๐‘Œ1 lebih banyak dijelaskan oleh variabel nilai Kalkulus Peubah Banyak, nilai Pengantar

analisis Kompleks, dan nilai Teori Peluang. Hal ini dapat dilihat dari koefisien yang cukup besar

dibanding variabel lainnya.

Page 5: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

5

Apabila sebuah variabel memiliki koefisien yan besar dan positif (negatif) pada kombinasi linear

yang mendefiniskan sebuah PC, maka dapat dikatakan bahwa terdapat korelasi yang kuat dan

positif (negatif) antara variabel tersebut dengan PC yang didefinisikan.

Dapat disimpulkan bahwa apabila nilai ๐‘Œ1 besar, maka nilai dari Kalkulus Peubah Banyak,

Pengantar analisis Kompleks, dan nilai Teori Peluang juga besar. Namun, apabila kita melihat

koefisien-koefisien yang ada pada kombinasi linier diatas, dapat dikatakan bahwa koefisien yang

ada tidak terlalu berbeda jauh. Tidak ada nilai koefisien yang sangat besar baik koefisien yang

bernilai positif maupun negatif. Hal ini sebenarnya juga memengaruhi seberapa bermanfaat

penggunaan metode analisis komponen utama pada data. Analisis Komponen utama sebaiknya

digunakan apabila nilai korelasi antara q-PC yang digunakan dengan variabel-variabel awal (dalam

hal ini p-variat variabel acak X) memiliki nilai yang besar.

๐‘Œ2 = โˆ’0.2355 nilai Fisika I A โˆ’ ๐ŸŽ. ๐Ÿ’๐Ÿ‘๐Ÿ–๐Ÿ— ๐’๐’Š๐’๐’‚๐’Š ๐‘ฒ๐’‚๐’๐’Œ๐’–๐’๐’–๐’” ๐‘ฐ๐‘จ โˆ’ 0.1441 nilai Fisika II A โˆ’

0.0497 nilai Kalkulus II A โˆ’ 0.1946 nilai Aljabar Linier Elementer A โˆ’

๐ŸŽ. ๐Ÿ’๐Ÿ’๐Ÿ–๐ŸŽ ๐’๐’Š๐’๐’‚๐’Š ๐‘ด๐’‚๐’•๐’†๐’Ž๐’‚๐’•๐’Š๐’Œ๐’‚ ๐‘ซ๐’Š๐’”๐’Œ๐’“๐’Š๐’• โˆ’ 0.1049 nilai Analisis Data +

0.1509 nilai Kalkulus Peubah Banyak + 0.2211 nilai Komputasi Matematika +

0.3993 nilai Metode Matematika + 0.0267 nilai Pengantar Analisis Kompleks +

0.1430 nilai Matematika Numerik + 0.3296 nilai Teori Peluang โˆ’

0.3438 nilai Pengantar Analisis Real

Nilai dari ๐‘Œ2 dapat dijelaskan cukup baik oleh variabel nilai Kalkulus IA dan nilai Matematika

Diskrit. Koefisien pada kedua variabel bertanda negatif. Hal ini mengindikasikan bahwa korelasi

antara ๐‘Œ2 dengan jumlahan dari nilai Kalkulus IA dan nilai Metematika Diskrit negatif. Artinya,

apabila nilai dari variabel ๐‘Œ2 dari seorang mahasiswa kecil, maka dapat disimpulkan bahwa nilai

Kalkulus dan nilai Matematika Diskrit dari mahasiswa tersebut besar. Sehingga dengan melihat nilai

dari ๐‘Œ2 , kita dapat menarik kesimpulan mengenai nilai Kalkulus IA dan nilai Matematika Diskrit.

Berikut disajikan Plot dari PC pertama terhadap PC kedua dari data yang ada.

Dari gambar scatterplot diatas, dapat disimpulkan bahwa:

1. Interval dari ๐‘Œ1 lebih besar dari interval dari ๐‘Œ2. Hal ini memperkuat bukti bahwa ๐‘Œ1 memiliki

variansi yang lebih besar. Sehingga dapat dikatakan bahwa jumlahan dari nilai Kalkulus Peubah

Banyak, nilai Pengantar analisis Kompleks, dan nilai Teori Peluang menghasilkan variansi yang

besar.

2. Sebagian besar titik berada pada daerah yang dilingkupi oleh garis oval berwarna biru. Pola ini

menunjukkan kecenderungan dari mahasiswa matematika angkatan 2007.

Page 6: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

6

3. Beberapa titik berada di bagian pojok kiri bawah dari grafik. Titik-titik yang berada pada bagian

pojok kiri bawah dari grafik dapat dikatakan sebagai pencilan karena tidak mengikuti

kecenderungan yang dijelaskan pada poin 2 dan berada jauh dari garis oval berwarna biru. Titik-

titik tersebut memiliki nilai ๐‘Œ1 dan ๐‘Œ2 yang tergolong kecil, sehingga dapat disimpulkan bahwa

sebagian kecil mahasiswa memiliki jumlahan nilai Kalkulus Peubah Banyak, Pengantar analisis

Kompleks,dan nilai Teori Peluang yang kecil, sedangkan jumlahan nilai Kalkulus IA dan nilai

Matematika Diskrit besar .

4. Mahasiswa yang memiliki jumlahan nilai Kalkulus IA dan nilai Matematika Diskrit paling besar

memilki jumlahan nilai Kalkulus Peubah Banyak, nilai Pengantar analisis Kompleks, dan nilai

Teori Peluang yang tergolong tidak besar. (lihat titik yang dilingkupi segitiga berwarna hijau)

Plot diatas sangat berguna apabila kita memberikan pendefinisian kategori yang memasukkan

masing-masing individu ke dalam sebuah kategori. Pemberian warna pada scatterplot diatas dapat

membantu visualisasi dari kategori yang ada. Dengan melihat pola dari scatterplot dari tiap-tiap

kategori, maka kita dapat menyimpulkan karakteristik dari tiap- tiap kategori.

Page 7: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010

7

Page 8: Analisis komponen utama (Principal Component Analysis)

Indah Nurina F.H/10110094/Institut Teknologi Bandung 2010