laporan 2 anreglan

27
BAB 1 PENDAHULUAN 1.1 Latar Belakang Statistika merupakan cabang dari ilmu matematika yang telah berkembang sangat pesat. Tidak hanya dapat digunakan dalam hal analisis, namun juga dapat digunakan sebagai metode pengambilan sebuah keputusan. Untuk menjalankan fungsinya tersebut, ilmu statistika berkembang dengan berbagai macam metode, salah satunya adalah analisis regresi. Analisis regresi merupakan salah satu metode statistika yang sering digunakan untuk membantu mengungkapkan hubungan atau pengaruh satu atau lebih peubah bebas terhadap peubah tak bebas. Bila dalam analisisnya hanya melibatkan sebuah peubah bebas maka digunakan adalah analisis linier sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih variabel bebas, maka analisis yang digunakan adalah analisis regresi linear berganda. Dalam kehidupan sehari-hari banyak sekali permasalahan yang 1

description

laporan analisis regresi lanjutan

Transcript of laporan 2 anreglan

BAB 1

PENDAHULUAN1.1 Latar Belakang

Statistika merupakan cabang dari ilmu matematika yang telah berkembang sangat pesat. Tidak hanya dapat digunakan dalam hal analisis, namun juga dapat digunakan sebagai metode pengambilan sebuah keputusan. Untuk menjalankan fungsinya tersebut, ilmu statistika berkembang dengan berbagai macam metode, salah satunya adalah analisis regresi.

Analisis regresi merupakan salah satu metode statistika yang sering digunakan untuk membantu mengungkapkan hubungan atau pengaruh satu atau lebih peubah bebas terhadap peubah tak bebas. Bila dalam analisisnya hanya melibatkan sebuah peubah bebas maka digunakan adalah analisis linier sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih variabel bebas, maka analisis yang digunakan adalah analisis regresi linear berganda. Dalam kehidupan sehari-hari banyak sekali permasalahan yang dapat dipecahkan dengan menggunakan analisis regresi, salah satu contohnya adalah mengenai tingkat konsumsi yang diduga dipengaruhi oleh pendapatan dan juga kekayaan.Dalam analisis regresi, salah satu asumsi klasik yang penting adalah multikolinearitas. Data yang di dalamnya terdapat multikolinearitas akan menyebabkan sifat bias terhadap pendugaan parameternya kelak. Sehingga, diperlukan suatu teknik khusus untuk menangani kasus data yang mengandung multikolinieritas, salah satunya menggunakan analisis regresi komponen utama yang akan dibahas pada laporan ini.

1.2 Tujuan Mengetahui dan dapat mendeskripsikan konsep multikolinearitas.

Dapat melakukan uji asumsi multikolinieritas menggunakan software Minitab.

Dapat menangani kasus multikolinieritas dengan menggunakan analisis regresi komponen utama.

Dapat melakukan interpretasi hasil penanganan multikolinieritas dengan regresi komponen utama.BAB II

TINJAUAN PUSTAKA2.1 Multikolinieritas

Multikolinearitas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independen dalam model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar bvariabel yang digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah multikolinieritas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independent.

Indikasi masalah multikolinieritas dapat kita lihat dari kasus-kasus sebagai berikut :

1. Nilai R2 yang tinggi (signifikan), namun nilai standard error dan tingkat signifikansi masing-masing variabel sangat rendah.

2. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikansi variabel yang diamati.

3. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif), ditunjukkan dengan nilai negatif.

Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari nilai toleransi atau VIF. Beberapa ahli berpendapat bahwa nilai toleransi kurang dari 1 atau VIF lebih besar dari 10 menunjukkan multikolinieritas signifikan, sementara itu para ahli lainnya menegaskan bahwa besarnya R2 model dianggap mengindikasikan adanya multikolinieritas. Klein (1962) menunjukkan bahwa jika VIF lebih besar dari 1/(1 R2) atau nilai toleransi kurang dari (1 R2), maka multikolinieritas dapat dianggap signifikan secara statsitik.2.2 Penanganan Multikolinieritas

Sebelum dilakukan penanganan kasus multikolinieritas, sebelumnya perlu diadakan pemeriksaan mengenai masalah tersebut. Pemeriksaan adanya masalah multikolinieritas dapat dilakukan dengan beberapa metode, diantaranya :

1. Menentukan matriks korelasi dari semua peubah bebas. Prosedur ini merupakan pemeriksaan yang paling sederhana dan paling mudah. Nilai korelasi yang tinggi antara peubah satu dengan yang lainnya memperlihatkan adanya hubungan linier pada peubah-peubah tersebut.

2. Multikolinieritas dalam peubah bebas dapat diperiksa dengan melihat nilai VIF. Nilai ini diperoleh dari diagonal utama hasil perhitungan matriks (XX)-1. Apabila salah satu nilai VIF lebih dari 10 maka dapat dikayakan bahwa peubah Xj berhubungan erat dengan peubah-peubah X lainnya atau dengan kata lain dalam peubah bebas terdapat masalah multikolinieritas (Myers,1990). Nilai VIF (fakor inflasi ragam) dapat juga dihitung berdasarkan rumus : VIFj = (1-R2j)-1 dengan R2j adalah koefisien determinan yang diperoleh jika peubah Xj diregresikan dengan p-1 peubah bebas lainnya. VIF memperlihatkan kenaikan ragam dugaan parameter yang dipengaruhi oleh keberadaan multikolinieritas (Sen dan Srivastava 1990, dalam Gusriani 2004). Penanganan kasus multikolinieritas ini telah dikembangkan oleh banyak peneliti melalui melalui berbagai pendekatan, diantaranya dengan menggunakan regresi himpunan terbaik dan regresi stepwise. Seperti yang dibahas dalam Draper and Smith (1992). Namun denikian jika seluruh peubah bebas berkorelasi tinggi, pendekatan-pendekatan tersebut sulit dilakukan dan tidak akan memperioleh solusi yang baik. Pendekatan lain dalam mengatasi multikolinieritas dapat digunakan regresi gulud (ridge regression), regresi akar laten, dan regresi komponen utama. Di antara metode-metode tersebut, regresi komponen utama merupakan metode yang dikenal baik dan sering digunakan (Jollife,1986).

2.3 Analisis Komponen Utama (Principle Component Analysis) Analisis komponen utama atau PCA adalah metode analisis peubah multi yang bertujuan memperkecil dimensi peubah asal seingga diperoleh peubah baru (komponen utama) yang tidak saling berkorelasi tetapi menyimpan sebagian besar informasi yang terkandung dalam peubah asal (Supranto, 2004).

Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan peubah yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara peubah bebas melalui transformasi peubah bebas asal ke peubah baru yang tidak berkorelasi sama sekali atau yang biasa disebut principal component.

Analisis Komponen Utama (PCA) merupakan sekumpulan m peubah asli untuk menghasilkan m peubah baru yang disebut sebagai komponen utama, PC1, PC2, . . ., PCm, yang mana masing-masing komponen utama membentuk kombinasi linier dari Ss Scores dari peubah asli. Atau pada bentuk matriks PC = XB, dimana masing-masing kolom B terdiri dari koefisien setiap komponen utama (Haris, 1975). Analisis komponen utama merubah sekumpulan peubah menjadi sekumpulan kombinasi linier untuk menghitung banyaknya ragam dari peubah asli (Dillon&Goldsten,1984).

Nilai proporsi dari kergaman total yang dapat diterangkan oleh komponen utama, kedua atau sampai sejumlah komponen utama secara bersama-sama adalah semaksimal mungkin dengan meminimalisasi informasi yang hilang. Mekipun jumlah komponen utama berkurang dari pemilihan komponen utama yang digunakan adalah jika nilai akar cirinya lebih dari 1 dan proporsi keragaman yang dianggap cukup mewakili total keragaman data jika keragaman kumulatif lebih dari 80% (Hair, Anderson, Thatham dan Black, 1998)BAB III

METODOLOGI3.1 Uji Multikolinieritas

Buka minitab ( masukkan data (Y dan X) seperti pada gambar di bawah ini dan siapkan kolom untuk standarisasi yaitu Z1, Z2, . . ., Zn dan juga kolom untuk menyimpan hasil komponen utama: W1, . . . , Wn :

Klik stat ( Regression ( Regression ( Fit Regression Model

Masukkan variabel dependent (Y) dan variabel independen (X1, ..., Xn) ( klik OK

Kemudian lihat hasilnya pada kolom SessionKemudian untuk analisis lebih lanjut nilai-nilai tersebut harus distandarisasi dengan klik Calc( Standardize dengan sebelumnya telah menyediakan tempat untuk Z1, . . . , Zn

Masukkan X input column dan masukkan kolom yang telah disediakan pada kolom Store result in seperti pada gambar di bawah ini ( klik OK

Kemudian lihat hasilnya pada kolom Z1, . . ., Zn yang telah disediakan.

Langkah selanjutnya adalah klik Stat ( Multivariate ( Principal Components

Kemudian akan muncul dialog box seperti di bawah ini :

Isilah kotak variables dengan data yang telah distandarisasi (Z1, Z2, ... , Z9) dan Pada type of Matrix pilihlah Covariance

Klik Storage ( Pada scores isilah W1, W2, ..., Wn ( OK ( OK

Kemudian Regresikan Y dengan W dengan Klik stat ( Regression ( Regression ( Fit Regression Model ( Isikan variabel Response dengan Y ( Isikan Continous predictors dengan W1, . . ., Wn ( OK

Kemudian untuk menampilkan statistik deskriptif klik Stat ( Basic Statistics ( Display Descriptive Statistics

Selanjutnya akan muncul dialog box seperti di bawah ini dan masukkan variabelsnya dengan data X

Setelah itu Klik Statistics ( Pilih / centang pada statistika deskriptif yang dibutuhkan saja ( OK ( OK seperti pada gambar di bawah ini :

BAB IV

HASIL DAN PEMBAHASAN4.1 Hasil Analisis Regresi pada Minitab

Dari hasil di atas diperoleh masing-masing koefisien untuk variabel prediktor. Namun, masalahnya ada VIF > 10 seingga dapat dikatakan bahwa data tersebut mengandung multikolinieritas tidak penuh. Sehingga perlu penanganan menggunakan regresi komponen utamaHasil standarisasi dan juga komponen utama ada pada lampiran.4.2 Hasil Regresi Komponen Utama

Pada matriks kovarian di atas, maka kita lihat dari kumulatifnya. Karena kita menggubakan acuan 80% maka digunakan 4 komponen yang diseabkan oleh komponen ke-empat baru menunjukkan nilai yang lebih dari 80%.

Hasil di atas merupakan hasil reresi Y terhadap W. Karena hanya menggunakan empat komponen utama maka modelnya menjadi :

Y = 34.612 + 2.358W1 + 1.684W2 + 0.423W3 + 0.348W4

Karena yang digunakan hanya empat komponen utama maka hanya dilihat dari PC1, PC2, PC3, dan PC4 dan penjabaran komponen utama dapat dilakukan seperti berikut ini : W1 = 0.421Z1 + 0.366Z2 + 0.319Z3 + 0.427Z4 + 0.294Z5 + 0.424Z6 + 0.346Z7 0.065Z8 + 0.121Z9

W2 = -0.287Z1 0.088Z2 0.374Z3 0.069Z4 + 0.212Z5 + 0.276Z6 + 0.455Z7 + 0.658Z8 +0.070Z9

W3 = 0.050Z1 0.105Z2 0.264Z3 + 0.043Z4+ 0.225Z5 + 0.052Z6 + 0.225Z7 0.299 Z8 0.849Z9W4 = 0.081Z1 0.516Z2 + 0.125Z3 0.32Z4 + 0.694Z5 + 0.075Z6 0.085Z7 0.220Z8 + 0.258Z9Maka setelah substitusi W didapatkan fungsi baru sebagai berikut :

Y = 34.612 + 0.558Z1 + 0.8253Z2 + 1.3138Z3 + 1.3828Z4 + 1.3878Z5 + 0.5127 Z6 + 1.7068Z7 + 1.4644Z8 + 0.852Z9Dengan analisis deskriptif yang diperoleh seperti pada gambar di bawah ini :

Maka kita regresikan Y terhadap X dengan menentukan parameter terlebih dahulu :

0 = 34.612 0.5587(6.405)/2.503 0.8253(1.1667)/0.058 1.3138(6.033)/3.860 1.3828(1.3836)/0.0763 1.3878(1.313)/0.365 0.5127(6.5)/0.783 1.7068(3.167)/0.319 -1.4644(37.46)/197.13-0.852(0.25)/0.1957 = -38.1077

1 = 0.5587 / 2.503 = 0.2232

2 = 0.8253 / 0.058 = 14.2293

3 = 1.3130 / 3.86 = 0.3402 4= 1.3828 / 0.0763 = 18.1232

5 = 1.3878 / 0.365 = 3.8022

6 = 0.5127 / 0.783 = 0.6548

7 = 1.7068 / 0.319 = 0.3505

8 = 1.4644 / 197.13 = 0.0074

9 = 0.852 / 0.1957 = 4.3536 Gambar di atas menunjukkan penduga yang sudah tidak mengandung multikolinieritas. Sehingga didapatkan model :

Interpretasi model :

Harga jual rumah akan turun sebesar 38.1077 jika semua peubah konstan.

Setiap kenaikan 1 unit pajak akan meningkatkan harga jual sebesar 0.2232 Setiap kenaikan 1 unit banyaknya kamar mandi akan meningkatkan harga jual rumah sebesar 14.2293 Setiap kenaikan 1 meter persegi luas tanah akan meningkatkan harga jual rumah sebesar 0.3402 Setiap kenaikan 1 meter persegi luas bangunan akan meningkatkan harga jual sebesar 18.1232 Setiap kenaikan 1 unit banyaknya garasi akan menaikkan harga jual sebesar 3.8022 Setiap kenaikan 1 unit banyaknya ruangan akan menaikkan harga jual rumah sebesar 0.6548 Setiap kenaikan 1 unit banyaknya kamar akan menaikkan harga jual rumah sebesar 0.3505 Setiap kenaikan 1 unit umur rumah akan menaikkan harga jual sebesar 0.0074 Setiap kenaikan 1 unit perapian akan meningkatkan harga jual rumah sebesar 4.3536BAB V

PENUTUP5.1 Kesimpulan Data harga jual rumah tersebut mengandung multikolinieritas karena ada VIF > 10 dan menyebabkan pendugaan parameter bersifat bias.

Penanganan multikolinieritas dapat dilakukan dengan menggunakan regresi komponen utama. Model dengan parameter tak bias setelah penanganan kasus multikolinieritas didapatkan :

5.2 Saran

Ketelitian sangat penting ketika mensubstitusikan W dan selain itu, perlu diperhatikan nilai kumulatif untuk membentuk fungsi baru agar tidak terjadi kesalahan fungsi DAFTAR PUSTAKA

Dillon, William R & Matthew Goldstein.1984. Multivariate Analysis Method and Application. Canada: John Willey&Sons,Inc.Gusriani, Nurul. 2004. Regresi Ridge dengan Penduga Bayes untuk Mengatasi Multikolinieritas. Bogor : IPB

Hair. J.F.Jr., R.E. Anderson, R.L. Thatham dan W.C. Black. 1998. Multivariate Data Analysis Fifth Ed. New Jersey: Prentice Hall International, Inc.Montgomery, Douglas C. Linear Regression Analysis : Fifth Edition . 2012. NewJersey : WileyPrasetyo, H.B. Analisis regresi komponen utama untuk mengatasi masalah multikolinieritas dalam analisis regresi linier berganda. [email protected]. Diakses tanggal 29 Maret 2015

Sembiring, R.K. 1995 . Analisis Regresi. Penerbit : ITBSoemartini. 2008. Principal Component Analysis sebagai Salah Satu untuk Mengatasi Multikolinearitas. Jatinangor: FMIPA-UNPAD

Yitnosumarno, S. 1985. Regresi dan Korelasi, teori dan pengguaannya. Malang (tidak dipublikasikan)LAMPIRAN 1 : Data

Lampiran 2 : Hasil transformasi

Lampiran 3 : Nilai W

Y = -38.1077 + 0.2232X1 + 14.2293X2 + 0.3402X3 + 18.1232X4 + 3.8022X5 + 0.6548X6 + 0.3505X7 + 0,0074X8 +4.3536X9

Y = -38.1077 + 0.2232X1 + 14.2293X2 + 0.3402X3 + 18.1232X4 + 3.8022X5 + 0.6548X6 + 0.3505X7 + 0,0074X8 +4.3536X9

20