Definisi2

20
A. Definisi Autokorelasi Autokorelasi, korelasi antara anggota observasi satu dengan observasi lain yang berlainan waktu. Dalam kaitannya dengan asumsi metode OLS, autokorelasi merupakan korelasi antara satu variable gangguan dengan variable gangguan yang lain. Sedangkan salah satu asumsi penting metode OLS berkaitan dengan variable gangguan adalah tidak adanya hubungan antara variabel gangguaan satu dengan variabel gangguan yang lain. Autokorelasi umumnya terjadi pada penelitian yang menggunakan data time series namun dapat juga terjadi pada data cross section. Secara Matematik autokorelasi dinyatakan sebagai : Cov ( e i ,e j ) =0 untuki≠j B. Akibat Autokorelasi Apabila asumsi-asumsi model regresi linier dapat dipenuhi, maka estimator OLS (ordinary least square) koefisien regresi akan : linier, tidak berbias, dan mempunyai varians yang minimum, singkatnya memenuhi standar BLUE (best linier unbiased estimator). Sehingga terjadinya autokorelasi menyebabkan beberapa hal-hal berikut : 1. Estimator yang dihasilkan masih tetap tak bias dan asympot konsisten 2. Penduga tetap tak bias, konsisten tetapi tidak lagi efisien (variansnya tidak lagi minimum). Oleh

description

contoh makalah autokorelasi

Transcript of Definisi2

A. Definisi AutokorelasiAutokorelasi, korelasi antara anggota observasi satu dengan observasi lain yang berlainan waktu. Dalam kaitannya dengan asumsi metode OLS, autokorelasi merupakan korelasi antara satu variable gangguan dengan variable gangguan yang lain. Sedangkan salah satu asumsi penting metode OLS berkaitan dengan variable gangguan adalah tidak adanya hubungan antara variabel gangguaan satu dengan variabel gangguan yang lain. Autokorelasi umumnya terjadi pada penelitian yang menggunakan data time series namun dapat juga terjadi pada data cross section. Secara Matematik autokorelasi dinyatakan sebagai :

B. Akibat AutokorelasiApabila asumsi-asumsi model regresi linier dapat dipenuhi, maka estimator OLS (ordinary least square) koefisien regresi akan : linier, tidak berbias, dan mempunyai varians yang minimum, singkatnya memenuhi standar BLUE (best linier unbiased estimator). Sehingga terjadinya autokorelasi menyebabkan beberapa hal-hal berikut :1. Estimator yang dihasilkan masih tetap tak bias dan asympot konsisten 2. Penduga tetap tak bias, konsisten tetapi tidak lagi efisien (variansnya tidak lagi minimum). Oleh karena itu selang keyakinannya menjadi lebar dan pengujian arti (signifikan) kurang kuat.3. Estimasi standard error dan varian koefisien regresi yang didapat akan underestimate. 4. Pemerikasaan terhadap residualnya akan menemui permasalahan. 5. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak berhubunganmenjadi berhubungan. Biasa disebut spourious regression.

C. Cara Mendeteksi AutokorelasiAda beberapa metode untuk mendeteksi masalah Autokorelasi dalam suatu regresi. Berikut beberapa metode tersebut :1. Metode Grafik Berdasarkan model sederhana seperti persamaan berikut:

Atau dalam bentuk defiasinya

Dengan ketentuan :

Selanjutnya diketahui bahwa,

Maka,

Dalam analisis time-series dapat diplot residuan () dengan waktu (t) atau dengan menvariasika antara dengan . Jika terjadi gambaran yang menunjukan pola yang beraturan, yaitu semakin naik atau semakin turun ini berarti terjadi gejala autokorelasi.

2. Metode Durbin-Watson (DW)Prosedur uji yang dikembangkan oleh Durbin-Watson dijelaskan dengan model sederhana seperti persamaan berikut:

Hubungan antara variable gangguan hanya tergantung dari variable gangguan sebelumnya atau disebut Model AR: -1.Jika maka sehingga variable gangguan di dalam persamaan tersebut tidak saling berhubungan atau tidak ada autokorelasi. Oleh karena itu hipotesis nol tidak adanya autokorelasi dapat ditulis : sedangkan hipotesis alternatifnya atau atau Untuk menguji hipotesis nol kita harus menghitung dan kemudian menguji secara statistika apakah signifikan atau tidak.akan tetepi penurunan distribusi probaaabilitas dari sangat sulit dilakukan. Sebagai altrnatif, Durbin dan Watson mengembangkan distribusi probabilitas yang berbeda. Uji statistic Durbin-Watson didasarkan dari residual metode OLS. Adapun formula uji statistic Durbin-Watson adalah sebagai berikut:

dimana adalah residual metode kuadrat terkecil. Bagaimana d berhubungan erat dengan dan bagaimana mendapatkan uji statistic untuk masalah autokorelasi, persamaan diatas dimanipulasi menjadi:

Karena dan berbeda hanya satu observasi, maka nilainya hampir sama. Persamaan diatas dapat ditulis sebagai berikut: (2) dimana (3)Persamaan (3) merupakan koefisien autokorelasi orde pertama sebagai proksi dari . Persamaan (2) dapat ditulis kembali menjadi(4)Karena -1 maka berimplikasi bahwa (5)Dari persamaan (4) tersebut jika maka nilai yang berarti tidak adanya masalah autokorelasi (pada order pertama). Oleh karna itu sebagai aturan kasar (rule of thumb) jika nilai d adalah 2, maka kita bisa mengatakan bahwa tidak ada autokorelasi baik positif maupun negative. Jika nilai mengindikasikan adanya aautokorelasi positif. Oleh karena itu, nilai d yang semakin mendekati nol menunjukkan semakin besar terjadinya autokorelasi positif. Jika , nilai yang berarti ada autokorelasi negative. Dengan demikian nilai d yang semakin besar mendekati 4 maka semakin besar terjadinya masalah autokorelasi negative.Durbin-Watson telah berhasil mengembangkan uji statistic berdasarkan persamaan (1) yang disebut uji statistic d. durbin-Watson berhasil menurunkan nilai kritis batas bawah () dan batas bawah () sehinggaa jika nilai d hitung dari persamaan (1) terletak diluar nilai kritis ini maka ada tidaknya autokorelasi baik positif maupun negative dapat diketahui. Penentuan ada tidaknya autokorelasi dapat dilihat dengan jelas dalam table dan gambar berikut.

Tabel 1. Uji Statistik Durbin-Watson dNilai Statistik dHasil

0 < d < d0 d0 d d0 d0 d 4 d0

4 d0 d 4 d0 4 d0 d 4Menolak hipotesis nol; ada autokorelasi positifDaerah keragu-raguan; tidak ada keputusanMenerima hipotesis nol; tidak ada autokorelasi positif/negatifDaerah keragu-raguan; tidak ada keputusanMenolak hipotesis nol; ada autokorelasi negatif

Gambar 2. Statistik Durbin-Watson d

Salah satu keuntungan dari uji DW yang didasarkan pada residual adalah bahwa setiap program komputer untuk regresi selalu memberi informasi statistik d. Adapun prosedur dari uji DW adalah sebagai berikut:a. Melakukan regrsi model OLS dan kemudian mendapatkan nilai residualnyab. Menghitung nilai d (kebanyakan program komputer secara otomatis menghitung nilai d)c. Dengan jumlah observasi (n) dan jumlah variabel independen tertentu tidak termasuk konstanta (k), kita cari nilai kritis d0 dan d0 di statistik Dirbin Watsond. Keputusan ada tidaknya autokorelasi didasarkan tabel 1 atau gambar 2

3. Metode Breusch-GodfreyLagrange Multiplier menjadi dasar dari metode Breusch-Godfrey. Lagrange Multiplier (LM) adalah uji untuk mengetahui apakah model Random Effectatau model Common Effect (OLS) yang paling tepat digunakan. Uji signifikasi Random Effect ini dikembangkan oleh Breusch Pagan. Metode Breusch Pagan untuk uji signifikasi Random Effect didasarkan pada nilai residual dari metode OLS. Adapun nilai statistik LM dihitung berdasarkan formula sebagai berikut:

Dimana :n = jumlah individuT = jumlah periode waktue = residual metode Common Effect (OLS)Hipotesis yang digunakan adalah :H0 : Common Effect ModelH1 : Random Effect ModelUji LM ini didasarkan pada distribusi chi-squares dengan degree of freedom sebesar jumlah variabel independen. Jika nilai LM statistik lebih besar dari nilai kritis statistikchi-squares maka kita menolak hipotesis nul, yang artinya estimasi yang tepat untuk model regresi data panel adalah metode Random Effect dari pada metode Common Effect. Sebaliknya jika nilai LM statistik lebih kecil dari nilai statistik chi-squaressebagai nilai kritis, maka kita menerima hipotesis nul, yang artinya estimasi yang digunakan dalam regresi data panel adalah metode Common Effect bukan metodeRandom Effect .Pada kesempatan ini uji LM tidak digunakan karena pada uji Chow dan uji Hausman menunjukan model yang paling tepat adalah Fixed Effct Model. Uji LM dipakai manakala pada uji Chow menunjukan model yang dipakai adalah Common Effect Model, sedangkan pada uji Hausman menunjukan model yang paling tepat adalah Random Effect Model. Maka diperlukan uji LM sebagai tahap akhir untuk menentukan model Common Effect atau Random Effect yang paling tepat.Uji Lagrange Multiplier (LM test) Uji autokorelasi denganLM test terutama digunakan unutk sample besar di atas 100 observasi. Uji ini lebih tepat digunakan dibandingkanDW test terutama bila sample yang akan digunakan relatif besar dan derajat autokorelasi lebih dari satu. Uji LM akan menghasilkan statistik Breusch-Godfrey. Pengujian Breusch-Godfrey (BG test) dilakukan dengan meregresi residual menggunakan autoregresive model dengan ordep:

Dalam penelitian ini uji autokorelasi menggunakan ujiBreusch-Godfrey Serial Correlation LM Test. Metode pengujian dengan ujiBreusch-Godfrey Serial Correlation LM Testdidasarkan pada nilai F dan Obs*R-Squared, dimanajika nilai probabilitas (p- value) danObs*R-Squaredmelebihi tingkat kepercayaan, maka Ho diterima, artinya tidak ada masalah autokorelasiUji ini dikembangkan oleh breusch-Godfrey.

Berdasarkan model tersebut Breusch-Godfrey mengasumsikan bahwa Ut mengikuti autoregresif ordo p(AR(p)), sehingga membentuk model berikut:

D. Cara Mengatasi (Penyembuhan)Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan antara residual. Atau dengan kata lain bagaimana bentuk struktur autokorelasi.Kita tulis kembali model regresi sederhana sebagai berikut : t0 +11 + (1)bagaimana sebelumnya, diasumsikan bahwa residual mengikuti model AR(1) sebagai berikut: e1= et-1+vt 1<