Belajar Multivariat

15
UJI KANONIK catatan: contoh uji menggunakan data dengan 6 variabel X dan 6 variabel Y Asumsi : linearitas, normalitas, multikolinieritas 1) Uji Asumsi Normalitas langkah-langkahnya: gunakan Herodes – klik Analyze Kenormalan Pilih semua variabel (baik X maupun Y) – pada Pemeriksaaan Kenormalan pilih Simultan – pada Pengujian Kenormalan pilih Simultan – lalu centang Skewness And Kurtosis Test – klik OK Interpretasi Output: interpretasi grafik: jika ttik merah semakin mendekati yg biru berarti semakin normal Pengujian Secara Simultan Tahap 1 Uji Skewness (x) => H0: data normal H1: data menceng Keputusan : signifikansi Skewness = 0.246 > 0.05 => terima H0 , atau data normal Tahap 2 uji Kurtosis (sigma) => H0: data normal H1: data runcing Keputusan : signifikansi Kurtosis = 0.083 > 0.05 => terima H0 atau data normal ( Penting: di kedua tahap keputusannya harus TERIMA H0 , jika salah satu tolak H0 berarti data tidak normal => harus ditransformasi terlebih dahulu jika H0 ditolak di tahap 1 (Skewness) maka gunakan box cox,

description

Rangkuman Multivariat

Transcript of Belajar Multivariat

UJI KANONIKcatatan: contoh uji menggunakan data dengan 6 variabel X dan 6 variabel Y

Asumsi : linearitas, normalitas, multikolinieritas

1) Uji Asumsi Normalitaslangkah-langkahnya:

gunakan Herodes – klik Analyze – Kenormalan Pilih semua variabel (baik X maupun Y) – pada Pemeriksaaan Kenormalan pilih Simultan –

pada Pengujian Kenormalan pilih Simultan – lalu centang Skewness And Kurtosis Test – klik OK

Interpretasi Output:

interpretasi grafik: jika ttik merah semakin mendekati yg biru berarti semakin normal Pengujian Secara Simultan

Tahap 1 Uji Skewness (x) => H0: data normal H1: data mencengKeputusan : signifikansi Skewness = 0.246 > 0.05 => terima H0 , atau data normal

Tahap 2 uji Kurtosis (sigma) => H0: data normal H1: data runcingKeputusan : signifikansi Kurtosis = 0.083 > 0.05 => terima H0 atau data normal ( Penting: di kedua tahap keputusannya harus TERIMA H0 , jika salah satu tolak H0 berarti data tidak normal => harus ditransformasi terlebih dahulu jika H0 ditolak di tahap 1 (Skewness) maka gunakan box cox, transformasi logaritma jika tolak H0 di tahap 2 (Kurtosis) gunakan transformasi varians di heterokedastisitas)

2) Uji Linearitas Scatter Plot untuk 6 variabel X dan 6 variabel Y => dipasangkan satu-satux1 - y1 . . . x6 - y1x1 - y2 x6 - y2x1 – y3 .x1 – y4 .x1 – y5 .x1 - y6 x6 - y6

Langkah-langkahnya: Gunakan SPSS - graphs - legacy dialogs - scatter/dot

pilih Simple Scatterplot – masukan satu persatu misalkan variabel X1 (Belanja Pegawai/BP) ke jendela X Axis dengan variabel Y1 (Pertumbuhan Ekonomi/PE) ke jendela Y Axis – OK

ulangi kembali langkah di atas untuk masing-masing kombinasi X dan Y

Output : Interpretasi : bersifat subjektif => dari gambar di atas bisa dilihat linear namun lemah

3) Uji Asumsi Non MultikolinieritasSecara agregat bisa dilihat dari matriks korelasiLangkah-Langkahnya:

gunakan spss uji nya dibagi menjadi dua bagian, X dan Y diuji secara terpisah Misalkan diuji untuk X terlebih dahulu: analyze- correlate - bivariate - masukan semua

variabel X – OK

Interpretasi: catatan: yang ada tanda ** berarti siginifikan => tolak H0=> ρ≠0 artinya ada korelasi antar variabel X => variabel tsb harus dibuang

H0: ρ=0 H1: ρ≠0 Dari matriks Korelasi hanya bisa melihat ada multikolinieritas atau tidaknya saja untuk mengetahui mana yg harus dibuang caranya : analyzse- regression - linear -

masukan ke enam variabel X ke box Independen dan masukan satu variabel Y (misalkan variabel Pertumbuhan Ekonomi) ke box Dependen

Lalu klik statistics: centang collinearity diagnostics

output: lihat di Tabel 'cofficients'

- buang yang VIF > 10 kesimpulan: variabel Belanja Pegawai, Transportasi, Pendidikan, Kesehatan dan Kesejahteraan memiliki multikolinieritasseharusnya variabel di atas dibuang namun karena ada teori yang kuat maka untuk di latihan uji kanonik variabel di atas tetap digunakan, tapi kalau di soal UAS tidak diberitahu tentang teori yang mendasari variabel maka harus dibuang.

Setelah semua pengujian asumsi dilakukan, sekarang ke uji kanonik, langkah-langkahnya:

Gunakan SPSS file-open-syntax

catatan: baris pertama saja yang diubah=> Y dulu baru X Y: PE TO TP X: BP TO KK artinya dari variabel PE (Pembangunan EKonomi) To variabel TP (Tingkat Pertumbuhan); dst. Nama variabel disesuaikan dengan variabel yg ingin diuji.

lalu klik run- all Interpretasi Output:

1) lihat Multivariate test of significance menguji semua gugus X dan gugus Y

H0: semua gugus peubah kanonik secara simultan tidak bisa menjelaskan hubungan set variabel X dengan set variabel Y

H1: semua gugus peubah kanonik secara simultan bisa menjelaskan hubungan set variabel X dengan set variabel Y

catatan: Uji pada Multivariate test of significance ada pillais, hotelling, wilks dan roys, jika salah satu saja signifikan berarti semua gugus peubah kanonik secara simultan bisa menjelaskan hubungan set variabel X dengan set variabel Y=> dapat lanjut ke analisis berikutnya

Kesimpulan : meskipun hanya satu uji saja yang signifikan yaitu uji Wilks ( 0.029 < 0.05) maka semua gugus peubah kanonik secara simultan bisa menjelaskan hubungan set variabel X dengan set variabel Y.

2) Lihat Tabel EigenValues and Canonical Correlation

'root no.1' artinya pasangan no 1 (V1W1 dimana V=X, W=Y) lihat kolom ke-5: Canon Cor. nilainya sebesar 0.996 artinya hubungan antara V1 dengan

W1 sangat kuat dan positif (interpretasi sama seperti korelasi biasa) lihat kolom ke -6: Sq.Cor nilainya sebesar 0.992 (0.9962 = 0.992) artinya

V1 bisa menjelaskan proporsi varian W1 sebesar 0.992.3) Lihat Dimension Reduction Analysis

roots : 1 TO 6 artinya V1W1 ; 2 TO 6 artinya V2W2 ; dst lihat nilai Sig.of F cari mana yg signifikan berarti itu yg digunakan dalam analisis

selanjutnya. Kesimpulan yang signifikan adalah root 1 to 6: V1W1 (Sig.of F = 0.029 < 0.05)

4) Lihat 'Standardized canonical coefficients for DEPENDENT variables'

karena pada tabel sebelumnya (Dimension Reduction Analysis ) hanya root 1 TO 6 atau V1W1 yang signifikan maka untuk modelnya hanya menggunakan nilai dari kolom 1:

ZW1: -0.070 ZPE - 0.154 ZABT + 0.240 ZAPS + 0.397 ZAMH + 0.272 ZTPT

interpretasi: ketika ZPE meningkat 1 satuan maka nilai ZW1 akan menurun sebesar -0.070, dst.

5) Lihat 'correlation between DEPENDENT and cannonical’

interpretasi: - hubungan PE dengan kanonikal variabel W1 sebesar 0.224 dan negatif,- hubungan ABT dengan kanonikal variabel W1 sebesar 0.667 dan negatif

- hubungan APS dengan kanonikal variabel W1 sebesar 0.786 dan positif; dst. lihat angkanya dr kolom 1 saja (W1) karena dari uji sebelumnya hanya V1W1 yang siginifikan (ingat yaah) kemudian lihat juga variabel mana yang memilki korelasi paling besar ( ρ>0.8 ) kesimpulan: indikator kesejahteraan (keseluruhan var X) dapat diwakili oleh variabel AMH (ρ = 0.868) catatan: jika ada lebih dari 1 variabel yang nilainya > 0.8 maka sejumlah variabel tersebutlah yang mewakili keseluruhan variabel.

6) lihat 'variance in independent variabel explained by canonical variabel'

interpretasi: - (lihat dr kolom ke-3) →variasi dalam set variabel DEPENDEN dapat dijelaskan oleh variabel

kanonik pertama (W1) yang terbentuk sebesar 42.871 % - (lihat dr kolom ke-5) →koef. Redudansi → variasi dalam set variabel INDEPENDEN dapat

dijelaskan oleh variabel kanonik pertama (V1) yg terbentuk sebesar 42.532 % (karena yg td signifikan cuma yg pertama jd dilihat cm baris pertama, kalau yg signifikan ada 2 berarti lihat yg baris 2 saja, baris 1 ga usah, dst)

7) Lihat yg standardizes canonical coef for COVARIATE '(COVARIATE= VAR INDEPENDEN)

Penting : COVARIATE= VAR INDEPENDEN (X) => sekarang sudah masuk ke analisis untuk variabel XInterpretasi: ZV1: -1.782 ZBP -0.59 ZTK -2.544 ZTranspor+ 0.042 ZPD– 0.099 ZPddkn - 0.52 ZKK

8) Lihat Correlations between COVARIATES and canonical variablesInterpretasi: variabel yang dapat mewakili (ρ>0.8 ) adalah variabel Transpor, Pddkn, dan KK (tidak melihat tanda positif atau negatif).

9) Lihat Variance in Covariates explained by canonical variables

interpretasi:- variasi dalam set variabel INDEPENDEN yg dpt dijelaskan oleh variabel kanonik V1

sebesar 61.379% (kol.5)- variasi dalam set variabel INDEPENDEN yg dpt dijelaskan oleh variabel kanonik W1

sebesar 60.894% (redundansi) (kol.3)

-analisis uji kanonik selesai- fiuuuhhhh

Catatan tambahan: Standardized canonical….. = PENIMBANG 'correlation between ….= FAKTOR LOADINGPoin Penting: KANONIK HANYA MEMPELAJARI HUBUNGAN => KALAU DUA GUGUS PASTI PAKAI KANONIK, X DAN Y HARUS BERUPA MATRIK, MINIMAL ADA 1 GUGUS YANG X ATAU Y NYA LEBIH DARI 1 DISKRIMINAN: KASUS KHUSUS DARI KANONIK => Y NYA HANYA 1 (BISA KATEGORIK) DAN X NYA HARUS BERUPA MATRIKPADA' DIMENSION REDUCTION ANALYSIS' LIHAT DI SIG.F NYA BISA DILAKUKAN UJI FORMAL UNTUK LINEARITAS => JIKA SIGNIFIKAN BERARTI LINEARH0: ρ=0 H1: ρ≠0→ ada korelasi → berarti linearPerbedaaan Analisis Faktor dengan Cluster: faktor mereduksi variabel, sedangkan cluster mereduksi amatan

ANALISIS FAKTOR

Pada Analisis Faktor belum dibedakan antara variabel X dengan Y; asumsinya: normal , multikolinieritasTahapan pengujian

1. uji asumsi normalitas2. lalu uji analisis:

analyze – data reduction – factor - masukan semua variabel – descriptif :centang KMO & anti images – extraction – jika satuannya beda pilih correlation, jika sama pilih covariance, pada display centang unrotated factor solution dan scree plot- lalu klik continue- lanjut ke rotation pilih ‘varimax’ - klik continue –pada score jika disuruh menampilkan variabel barunya maka pada ‘scores’ centang yg ‘save as’ – continue- ok

3. interpretasi: Bartlets test: (mendeteksi ada multikolinieritas atau tidak)H0: ρ=¿matriks identitas H1: ρ≠matrik identitas => multikolinieritas (ingin ditolak H0, kalau tolak berarti ada multikolinieritas)KMO TestKMO yang bagus >0,8KMO yang cukup >0,5 => bisa melanjutkan analisisMSA dilihat dari Anti images correlation -> lihat tabel anti-images matriks -> fokus di diagonal utama, syaratnya lebih dari 0,5. Jika kurang maka dibuang satu persatu di run ulangcommunalities: proporsi yang mampu dijelaskan oleh faktor

Communalities

Initia

lExtrac

tionTP 1.00

0.967

MSY

1.000

.808

TE 1.000

.978

HSE

1.000

.841

MVH

1.000 .726

Total Variance ExplainedComponent Initial Eigenvalues Extraction Sums of Squared Loadings Rotation Sums of Squared Loadings

Total% of

VarianceCumulati

ve % Total % of Variance Cumulative % Total % of Variance1 3.029 60.578 60.578 3.029 60.578 60.578 3.021 60.4302 1.291 25.823 86.401 1.291 25.823 86.401 1.299 25.9713 .572 11.449 97.8504 .095 1.908 99.7585 .012 .242 100.000

component: faktor yang terbentuk lihat dari kumulatif persentase; pada komponen 1 bisa menjelaskan 60,578% (masih kurang karena < 80%) sehingga ditambah dengan komponen ke-2, sehingga totalnya menjadi 86,401%; pada kolom Initial Eigen value di Total, pilih yang eigen valuenya > 1 , jadi Cuma komponen 1 dan 2; kenapa harus >1 ? karena ketika eigen value kurang dari 1 maka vektor ciri juga kecil. kalau eigen vektor kecil maka sumbangsih untuk menjelaskan variabel asal juga kecil.pada scree plot, subjektif, untuk melihat berapa komponen/faktor yang kita pakai

Component Matrix(a)

Component

1 2TP .972 .149MSY .545 .715TE .989 .005HSE .847 -.352MVH -.303 .797

Extraction Method: Principal Component Analysis.

a 2 components extracted. ; komponen matrik untuk menentukan faktor pertama dan faktor kedua itu terdiri dari apa saja; komponen matrik disebut juga faktor loading, dimana kuadrat loading pertama + kuadrat loading kedua = nilai extraction di communalities. nah berdasarkan output, lihat di faktor mana ia paling besarFaktor 1: TP, TE, HSE Faktor 2: MSY, MVH. jika perbedaan antara kedua komponen itu tidak terlalu jauh berbeda maka perlu dirotasi->VarimaxTeori:perbedaan antara AKU dengan A. Faktor: AKU bisa menghasilkan antara komponen 1 dengan komponen 2 masih berkorelasi (tidak mutually

exclusive) sedangkan pada Analisis Faktor sudah mutually exclusive PCA menghasilkan komponen, A.Faktor menghasilkan faktor. Faktor menyusun variabel, komponen disusun dari variabel.AKU=> komponen 1 = 0.972 TP + 0.545 MSY +0.989 TE + 0.847 HSE - 0.303 MVH komponen 2= 0.149TP + 0.715MSY + 0.005 TE – 0.352 HSE + 0.797 MVHAnalisis faktor: Faktor 1: TP, TE, HSE Faktor 2: MSY, MVH

ANALISIS DISKRIMINANAsumsi: Normalitas, rata2 populasi berbeda, ragam sama, non multikolinieritas1.uji normalitas : harus data yg kuantitaif, yg dinormalkan variabel X, Y di diskriminan ; uji dengan normalitas, interpretasi output:

sig. skewness dan sig.kurtosis =0 -> artinya data tidak berdistribusi normal (H0: data berdistribusi normal) sedangkan dari gambar:

bisa dilihat ada outlier sehingga perlu dikeluarkan data yg outlier tersebut. Untuk mengetahui mana yang outlier gunakan Box Plot (dgn SPSS)langkah-langkahnya: SPSS-graphs-Legacy Dialogs-Box Plot –Simple- klik yg separate variable –masukan var minum (variabel independennya) ke Y Axis, masukan yg semua variabel X ke X Axisbisa dilihat ada 4 outlier, yg tingginya antara 170-180 => harus dihilangkan dari data supaya normalcaranya: data-select cases-klik ‘if condisition is satisfied’

pada window ‘if’ ketik : tinggi <170 –continu

setelah kembali ke window ‘select cases’ klik ‘Delete unselected cases’

maka semua data yang tingginya >170 akan hilang sehingga data menjadi normal.2. Asumsi Rata-rata berbeda caranya : SPSS - analyze – classify – discriminant – statistic: centang univariate Anova (masukan semua var X) - OKoutput:

Tests of Equality of Group Means

Wilks'

Lambda F df1 df2 Sig.Tinggi .946 4.186 1 73 .044Income .894 8.656 1 73 .004Usia .945 4.247 1 73 .043Berat .934 5.173 1 73 .026Jam kerja 1.000 .000 1 73 .994Olahraga .946 4.183 1 73 .044

interpret: H0: μ1=μ2 H1: μ1≠μ2

harus tolak H0 agar memenuhi asumsi rata-rata grup berbeda. kesimpulan: semua signifikan berbeda kecuali variabel Jam kerja => lihat dari nilai sig. nyaket: μ1rata-rata per variabel untuk grup 1; μ2 = rata-rata per variabel untuk grup 2.Uji analisis Diskriminan:

gunakan SPSS analyze-classify-discriminant

masukan var’minum’ (variabel Y) ke ‘grouping variables’

lalu masukan semua var (kecuali var No) ke ‘Independents’ - pilih stepwise method

di ‘statistics: pilih means, box m, fisher-continu

di ‘method’ pilih ‘wilks lambda’ (bisa juga mahalanobis) - centang ‘use probability of’ –continue

di classify : all group equals . casewise results , summary table -continu

OK output

Analysis Case Processing SummaryUnweighted Cases N PercentValid 75 100.0Excluded Missing or out-of-range

group codes 0 .0

At least one missing discriminating variable 0 .0

Both missing or out-of-range group codes and at least one missing discriminating variable

0 .0

Total 0 .0Total 75 100.0

menunjukan proses: berapa yg dianalisisGroup Statistics

Minum

Mean Std. Deviation Valid N (listwise)

Unweighted Weighted Unweighted Weightedsedikit Usia 31.8684 6.12558 38 38.000

Berat 57.2105 11.76609 38 38.000Tinggi 158.4474 5.66496 38 38.000Income 659.4737 106.79476 38 38.000Jam kerja 5.2684 .11100 38 38.000Olahraga 3.1974 .55385 38 38.000

banyak Usia 28.9459 6.15515 37 37.000Berat 51.8108 8.48475 37 37.000Tinggi 161.5676 7.44439 37 37.000Income 578.9189 129.52442 37 37.000Jam kerja 5.2686 .15667 37 37.000Olahraga 2.9054 .67780 37 37.000

Total Usia 30.4267 6.27344 75 75.000

Berat 54.5467 10.56549 75 75.000Tinggi 159.9867 6.74335 75 75.000Income 619.7333 124.53127 75 75.000Jam kerja 5.2685 .13454 75 75.000

Olahraga 3.0533 .63124 75 75.000

interpret: rata-rata usia yang minumnya sedikit ialah 31 tahun dengan SIMPANGAN 6,12 ; dst.Test Results

Box's M 18.006F Approx. 2.867

df1 6df2 38532.597Sig. .009

Tests null hypothesis of equal population covariance matrices.H0: varians sama H1: varians tidak samahasilnya nilai sig = 0.009 maka tolak H0 artinya varians tidak sama => data tidak bisa dilanjutkancatatan: untuk uji normal jika tolak H0 => data tidak normal harus ditransformasi agar jadi normal ; jika uji keragaman hasilnya tidak ragam-> tidak perlu lanjut ujiagar bisa lanjut uji maka variabel Tinggi dan Income dikeluarkan sehingga hasilnya:Test Results

Box's M 7.255F Approx. 2.347

df1 3df2 982330.77

2Sig. .071

Tests null hypothesis of equal population covariance matrices. sig = 0.071 => terima H0 = ragam sama , maka uji bisa dilanjutkan

Variables Entered/Removed(a,b,c,d)

Step

Entered Wilks' LambdaStatistic df2 df3 Exact F Statistic df1Statistic df2 Sig. Statistic df1 df2 Sig. Statistic df1

1 Berat .934 1 1 73.000 5.173 1 73.000 .0262 Olahraga .879 2 1 73.000 4.947 2 72.000 .010

At each step, the variable that minimizes the overall Wilks' Lambda is entered.a Maximum number of steps is 8.b Maximum significance of F to enter is .05.c Minimum significance of F to remove is .10.d F level, tolerance, or VIN insufficient for further computation.di stepwise hanya ada variabel Berat dan Olahraga , artinya dalam Diskriminan function yang masuk hanya variabel Berat dan Olahraga

Variables in the AnalysisStep

Tolerance Sig. of F to Remove

Wilks' Lambda

1 Berat 1.000 .0262 Berat .995 .022 .946 Olahrag

a .995 .038 .934

artinya variabel yang akan dianalisis; Tolerance: utk mendeteksi multikolinieritas, ketika nilainya lebih dari 5 => ada multikolinieritas

Variables Not in the Analysis

Step ToleranceMin.

ToleranceSig. of F to

EnterWilks'

Lambda0 Usia 1.000 1.000 .043 .945

Berat 1.000 1.000 .026 .934Jam kerja 1.000 1.000 .994 1.000Olahraga 1.000 1.000 .044 .946

1 Usia 1.000 1.000 .051 .886Jam kerja .996 .996 .879 .934Olahraga .995 .995 .038 .879

2 Usia .761 .758 .299 .866Jam kerja .996 .991 .876 .879

di step 0: yg paling kecil nilai signifikasinya dan signifikan adalah variabel Berat => maka variabel Berat masuk ke Tabel Variabel in the analysis

Step Sig. of F to

Enter0 Usia .043

Berat .026Jam kerja .994

Olahraga .044

step 1: yg paling kecil nilai signifikasinya dan signifikan adalah variabel olahraga => maka variabel Olahraga masuk ke Tabel Variabel in the analysis

Step Sig. of F to

Enter1 Usia .051

Jam kerja .879Olahraga .038

step 2: tidak ada yg signifikan => maka tidak masuk ke fungsi di tabel

Variables in the Analysis

Step ToleranceSig. of F to Remove

Wilks' Lambda

1 Berat 1.000 .0262 Berat .995 .022 .946

Olahraga .995 .038 .934bisa dilihat sig. of F to remove nya tidak signifikan sehingga kedua variabel tidak perlu dihilangkan

Eigenvalues

Function Eigenvalue % of Variance Cumulative %Canonical

Correlation1 .137(a) 100.0 100.0 .348

a First 1 canonical discriminant functions were used in the analysis.interpretasi: keeratan hubungan antara skore diskriminan dengan grup adalah sebesar 0.348 (Canonical Correlation) ketika Canonical Correlation dikuadratkan maka akan sama dengan R2 (koef. determinasi)Interpret R2 (koef. determinasi): besarnya pengaruh var bebas untuk membedakan grupnya (masuk ek minum sedikit atau minum banyak) sebesar (0.121)Wilks' Lambda

Test of Function(s)Wilks'

Lambda Chi-square df Sig.1 .879 9.271 2 .010

Wilks' Lambda =0.879 : artinya varian total dalam diskriminan scores yang tidak bisa dijelaskan oleh perbedaan antar grup 87.9% ; diskriminan scores: untuk membedakan seseorang itu akan masuk ke grup mana; nilai 87.9% termasuk besar sehingga data bisa dikatakan tidak baikH0: fungsi diskriminan tidak dapat menjelaskan perbedaan antar kedua grup H1: fungsi diskriminan dapat menjelaskan perbedaan antar kedua grupnilai sig. sebesar .010 artinya tolak H0 => fungsi diskriminan dapat membedakan perbedaan antar kedua grup dengan jelas catatan: nilai wilks lambda hanya menjelaskan besarnya saja (tidak pasti) untuk lebih pasti lihat nilai sig.nya (df= 2 : karena ada 2 variabel yg masuk)Standardized Canonical Discriminant Function Coefficients

Function

1Berat .765Olahraga .698

interpret: Zminimum = 0.765 Zberat + 0,698 Zolahraga jika hanya ada 2 kategori ,maka hanya buat 1 Z (kayak dummy)Structure Matrix

Function

1Berat .718Olahraga .646Usia(a) .339Jam kerja(a) .051

Pooled within-groups correlations between discriminating variables and standardized canonical discriminant functions Variables ordered by absolute size of correlation within function.a This variable not used in the analysis.structure matrix : menjelaskan korelasi dari semua variabel bebas terhadap fungsi diskriminan. Jika ada tanda a berarti tidak masuk dalam fungsi, nilai korelasinya kecil

Functions at Group Centroids

MinumFunction

1sedikit .361banya -.371

kUnstandardized canonical discriminant functions evaluated at group meansCV (Cut of Value) = Z1n2 + Z2n1 / (n1 + n2) maka CV = 0.361*37 + (-0.371*38) / (75) = -0.03208 Centroid Z1 (minum sedikit) > Centroid Z2 (minum banyak) , maka jika nilai dari Zminimum = 0.765 Zberat + 0,698 Zolahraga kurang dari -0.03208 maka akan masuk ke Centroid Z2 (minum ba,nyak); jika nilai Zminimum > -0.03208 maka masuk ke Centroid Z1 (minum sedikit) .

nilai Zberat, Zolahraga didapat dari transformasi ( x i−xs )Centroid Grup ini menunjukan nilai tengah dari masing2 grup / dari masing2 Z score nyaClassification Results(a)Classification Results

MinumPredicted Group

Membership Total sedikit banyak sedikitOriginal Count sedikit 24 14 38 banyak 12 25 37 % sedikit 63.2 36.8 100.0 banyak 32.4 67.6 100.0

a 65.3% of original grouped cases correctly classified.ket: angka yg berwarna merah: yang benarinterpretasi nilai 65,3 % => tingkat keakuratan fungsi diskriminan dapat membedakan perbedaan grup adalah sebesar : (24 + 25) / 75 * 100% = 65,3 %

Tambahan Teori:Ciri-ciri Diskriminan

ada 1 variabel dependen yang kategorik ada var independen nya berupa matrik ingin menentukan amatan masuk ke grup mana bedanya dengan cluster => cluster menggunakan informasi variabel untuk membentuk

gerombol, sedangkan diskriminan membedakan dulu baru ada variabel-variabelnyaUJI CLUSTER

variabel belum dibedakan antara X dan Y ; Cluster Non Hierarki: sudah ada kepentingan dari peneliti (biaya, ada teori, dll); Cluster Hierarki: membebaskan SPSS untuk membuat pengklusteranAsumsi:

Normal Multikolinieritas Independen antar observasi sampelnya acak syarat utama: data harus berupa matrik

catatan jika normal maka sudah pasti independen, dan acaktahapan:1. uji kenormalan2. Uji analisisnya: analyze Descriptives statististik – descriptive –masukan semua variabel –

centang save standardized values as variables – ok3. analyze – classify- hierarchical cluster- masukan semua variabel Z score ke kolom variable(s) –

pada Statistic centang agglomeration dan proximity, pada cluster membership=> none itu membebaskan spss, single dibatasi oleh user, range solution=> memerintahkan mau minimum bro max brp pada plot pilih: dendogram, pada method pilih Wards method-continue – pada Label Cases masukan var provinsi (yg akan dibuat cluster) – OK

4. outputAgglomeration schedule : proses pembentukan cluster => ada …. Step

untuk yang non hierarki cluster:analyze – classify – K –means cluster – masukan var Z score- select case by : provinsi- number of cluster misalnya ingin buat jadi 3 cluster – save: centang cluster membership dan distance from cluster- di options : centang ANOVA- iterasi: tidak ada yg diubah – OKoutput:iteration history: melakukan iterasi brp kali untuk mendapatkan cluster terbaikfinal cluster centers: jika nilai Z scorepositif berartinilai tsb berada di atas rata2 total, jika negatif berarti rata2nya berada di bawah rata2 totaldengan kata lain jika + => di atas rata2 nasional, - di bawah rata2 nasional

Final Cluster Centers

Cluster

1 2 3

Zscore(PE) .02972 -.04791 -.19605Zscore(PDRB_per_kapita) -.23288 -.22111 1.68545Zscore(Share) -.36608 3.02753 1.80569Zscore(PAD) -.27798 4.84684 .73412Zscore(PMDN) -.29842 .82484 1.88275Zscore(PMA) -.26154 5.06503 .56451Zscore(J.Penduduk) -.31256 .23384 2.12945Zscore(IPM) -.12337 1.93049 .38094Zscore(TPAK) .15775 -1.83674 -.64503Zscore(PersenMiskin) .02559 -1.02641 .07750

jadi rata2 yg tertinggi ada di cluster pertama .02972, kedua di cluster ke-2 -.04791, terendah di cluster ke 3 -.19605ANOVA

Cluster Error F Sig.

Mean Square Df Mean Square Df Mean Square dfZscore(PE)

.090 2 1.061 30 .085 .919

Zscore(PDRB_per_kapita)6.465 2 .636 30 10.171 .000

Zscore(Share)12.980 2 .201 30 64.476 .000

Zscore(PAD)13.906 2 .140 30 99.592 .000

Zscore(PMDN)8.677 2 .488 30 17.771 .000

Zscore(PMA)14.422 2 .105 30 137.111 .000

Zscore(J.Penduduk)10.464 2 .369 30 28.354 .000

Zscore(IPM)2.367 2 .909 30 2.604 .091

Zscore(TPAK)2.867 2 .876 30 3.275 .052

Zscore(PersenMiskin).548 2 1.030 30 .532 .593

The F tests should be used only for descriptive purposes because the clusters have been chosen to maximize the differences among cases in different clusters. The observed significance levels are not corrected for this and thus cannot be interpreted as tests of the hypothesis that the cluster means are equal.

dilihat yang signifikan berbeda: share, PAD, PMDN, PMA, J Penduduk.=> variabel ini bisa digunakan untuk mengelompokan cluster.QCL1: melihat observasi masuk ke cluster manaQCL 2: jarak antara observasi ke pusat cluster . contoh jarak rata2 aceh dengan rata2 cluster tempat kemana aceh masuk.