Uji Normalitas dengan Kolmogorov Smirnov - Official...

24

Click here to load reader

Transcript of Uji Normalitas dengan Kolmogorov Smirnov - Official...

Page 1: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.

Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

Uji Asumsi Klasik (Lengkap)

Uji asumsi klasik merupakan terjemahan dari clasical linear regression model (CLRM) yang merupakan asumsi yang diperlukan dalam analisis regresi linear dengan ordinary least square (OLS). Sebagai informasi, semua ini berkat kejeniusan seorang matematikawan Jerman bernama Carl Friedrich Gauss.

CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri dari 10 item. Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai buku statistik terapan mungkin hanya 4 atau 5 saja. Mengapa? Berikut sedikit uraian tentang 10 item tersebut.

1.    Asumsi 1: Linear Regression Model.

Model regresi haruslah linear, meskipun bisa saja sebenarnya variabel terikat Y dengan variabel bebas X tidak linear. Istilah linear sebenarnya ada dua macam, yaitu linearitas pada variabel dan linearitas pada parameter. Yang disebut dengan linearitas pada variabel adalah jika digambarkan dalam grafik maka akan berbentuk garis lurus. Misalnya persamaan Y = a + bX. Seandainya persamaannya adalah Y = a + b X^2 maka disebut tidak linear, karena jika digambarkan dalam grafik tidak membentuk garis lurus. Atau secara umum dapat dikatakan jika X mempunyai pangkat 1. Sedangkan linearitas pada parameter adalah merujuk kepada koefisiennya yaitu b. Jadi persamaan Y = a + b X^2 dapat disebut linear jika koefisien b mempunyai pangkat 1. Asumsi yang diperlukan dalam regresi linear adalah linearitas pada parameter, bukan linearitas pada variabel.

HARJANTO SUTEDJO hal 1

Page 2: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

2.    Asumsi 2: X values are fixed in repeated sampling.

Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam sampel yang berulang. Misalnya ada 7 data yang akan dianalisis dengan regresi (ini hanya contoh saja, karena regresi dengan 7 data tampaknya terlalu sedikit).

Gaji (juta)        Pengeluaran (juta) 3                     2,5 3                     2 3                     3 4                     3 4                     2,5 5                     4,5 5                     4

Jadi misalnya ambil nilai tetap untuk X, yaitu gaji 3 juta maka sampel pertama mempunyai pengeluaran 2,5 juta. Lalu ambil lagi sampel kedua dengan gaji 3 juta maka pengeluarannya adalah 2 juta. Demikian seterusnya untuk sampel dengan gaji 4 juta dan 5 juta. Jadi nilai X dianggap tetap pada sampel yang berulang. (dalam regresi lanjut, dapat diasumsikan bahwa X tidak stokastik).

3.    Asumsi 3: Zero mean value of disturbance ui

Nilai Y hasil prediksi dengan model regresi tentunya mempunyai kesalahan atau tidak tepat sama dengan nilai Y pada data. Selisihnya sering disebut dengan disturbance dan sering disimbolkan dengan u. Nilai ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika kita telah mendaptkan garis lurus pada model, maka nilai Y yang sebenarnya bisa berada di atas atau di bawah garis lurus tersebut, akan tetapi jumlahnya akan seimbang sehingg rata-ratanya sama dengan 0.

4.    Asumsi 4: Homoscedasticity or equal variance of ui

Homo berarti sama atau equal, scedasticity berarti disperse atau scatter atau ada yang mengartikan sebaran. Jadi varians dari error atau disturbance haruslah sama pada masing-masing nilai X. Sebagai contoh, ada 3 orang dengan gaji 3 juta sehingga memberikan tiga buah error dan mempunyai varians. Varians ini harus sama (equal) dengan varians error pada nilai X yang lain misalnya 4 juta. Demikian seterusnya.

5.    Asumsi 5: No autocorrelation between the disturbances

Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk sembarang 2 buah nilai X, maka kedua error itu tidak berkorelasi (atau mempunyai korelasi 0). Misalnya error pada X sebesar 3 juta dengan Y sebesar 2,5 dengan error pada X sebesar 3 juta dengan Y sebesar 2 juta tidak berkorelasi. Pengertian lain adalah misalnya ada persamaan Y = a + b X + u dengan u adalah error. Jika ada korelasi antara u dengan u-1 (error sebelumnya) maka model akan gagal, karena Y pada model harusnya dipengaruhi oleh X saja, akan dipengaruhi oleh u. Demikian seterusnya.

HARJANTO SUTEDJO hal 2

Page 3: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

6.    Asumsi 6: Zero covariance between ui and Xi

Artinya nilai variabel bebas (Xi) dengan error (ui) tidak berkorelasi. Diasumsikan bahwa Y adalah dipengaruhi oleh X dan u, sehingga X dan u harus tidak saling berkorelasi. Jika X dan u berkorelasi, maka tidak mungkin mencari pengaruh masing-masing terhadap Y. Jika X berkorelasi positif dengan u, maka jika X meningkat u juga meningkat, atau jika X menurun maka u juga menurun (juga sebaliknya jika berkorelasi negatif). Sehingga sulit untuk mengisolasi pengaruh X dan u terhadap Y. Asumsi ini sebenarnya akan terpenuhi secara otomatis jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah.

7.    Asumsi 7: The number of observations n must be greater than the number of parameters to be estimated

Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika ada dua parameter yang akan dicari nilainya maka tentunya tidak mungkin diselesaikan dengan satu persamaan (observasi).

8.    Asumsi 8: Variability in X values

Harus ada variasi nilai dalam variabel X. Jika X nilainya sama untuk semua observasi maka tentunya tidak dapat diestimasi. Meskipun ini mudah dimengerti namun sering dilupakan.

9.    Asumsi 9: The regression model is correctly specified

Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang telah dikembangkan. Seperti telah dijelaskan bahwa statistik hanyalah untuk menguji teori atau fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak berdasarkan teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan.

10.  Asumsi 10: There is no perfect multicollinearity

Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas dalam model regresi. Jadi asumsi ini tentunya tidak bisa diterapkan pada regresi dengan satu variabel bebas (regresi linear sederhana).

Setelah menyimak uraian di atas, mungkin ada beberapa pertanyaan yang spontan muncul dalam benak Anda. Misalnya, mengapa uji normalitas residual tidak ada? Tepat sekali, asumsi normalitas residual (bukan normalitas pada masing-masing variabel) memang diperlukan akan tetapi itu tidak termasuk dalam uji asumsi klasik. Gujarati (2004:93) menulis 'The assumption that the disturbances ui are normally distributed is not a part of the CLRM’. Jika Anda masih berargumen, bahwa di dalam berbagai penelitian, uji normalitas residual dimasukkan dalam uji asumsi klasik (CLRM). Kajian tentang normalitas dimasukkan dalam Classical Normal Linear Regression Model (CNLRM). Jadi masalah penempatannya mau di mana, kita tidak dapat berkomentar.

HARJANTO SUTEDJO hal 3

Page 4: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Jika Anda simak lebih lanjut, maka dari 10 asumsi dalam CLRM tidak semuanya perlu diuji karena secara otomatis telah dimasukkan dalam persamaan untuk mengestimasi nilai konstanta, koefisien atau errornya. Asumsi 2, 3, 6, 7, 8 dan 9 tidak perlu lagi dilakukan pengujian tersendiri. Asumsi 1 juga sering tidak dilakukan karena terkait dengan asumsi 9, yaitu bahwa model harus dispesifikasi dengan benar. Asumsi 4, 5 dan 10 yang memerlukan pengujian tersendiri ditambah dengan pengujian normalitas.

Sumber Bacaan: Gujarati (2004)

untuk penelitian skripsi, apa digunakan semuanya?

sesuai keperluan

1. Uji Normalitas

Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.

Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

HARJANTO SUTEDJO hal 4

Page 5: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

2. Uji Multikolinearitas

Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI).

Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.2. Menambah jumlah observasi.3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar

kuadrat atau bentuk first difference delta.

3. Uji Heteroskedastisitas

Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi

HARJANTO SUTEDJO hal 5

Page 6: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.

Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.

5. Uji Linearitas

Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.

Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.

Uji Heteroskedastisitas dengan Glejser

Pengujian heteroskedastisitas dengan metode grafik lazim dipergunakan meskipun menimbulkan bias, karena pengamatan antara satu pengamat dengan pengamat lain bisa menimbulkan perbedaan persepsi. Oleh karena itu, penggunaan uji statistik diharapkan menghilangkan unsur bias tersebut. Salah satu uji statistik yang lazim dipergunakan adalah uji Glejser (di samping uji yang lain, misalnya uji Park, atau uji White).

HARJANTO SUTEDJO hal 6

Page 7: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Uji Glejser dilakukan dengan meregresikan variabel-variabel bebas terhadap nilai absolut residualnya (Gujarati, 2004). Sebagai pengertian dasar, residual adalah selisih antara nilai observasi dengan nilai prediksi; dan absolut adalah nilai mutlaknya. Sebagai ilustrasi, berikut adalah regresi antara kecerdasan emosional (KE) dan kecerdasan spiritual (KS) terhadap kinerja auditor (KA)

KA = a + b1 KE + b2 KS

Langkah pertama adalah meregresikan KE dan KS (sebagai variabel independen) terhadap KA (sebagai variabel dependen). Kemudian klik menu Save pada menu residual klik unstandardized. Klik OK sehingga akan muncul nilai res_1 pada tabulasi data SPSS. Angka yang terdapat pada kolom res_1 pada tabulasi SPSS merupakan nilai residual yaitu selisih antara KA hasil observasi (kuesioner) dengan KA hasil prediksi pada persamaan di atas.

Langkah kedua adalah menghitung nilai absolut dari residual di atas. Jika dilakukan dengan maka dengan menggunakan menu Transform --> compute. Pada baris Target variable isikan abs_res yang berarti absolut residual. Kemudian klik pada function ABS(numexpr) sehingga pada baris numeric expression akan keluar ABS(?). Isikan res_1 pada (?) lalu tekan OK, sehingga pada kolom sebelah res_1 akan keluar abs_res yang berisi nilai absolut residual.

Selanjutnya adalah meregresikan KE dan KS dengan absolut residual, dan interpretasi heteroskedastisitas dilakukan dengan melihat signifikansi antara KE dan KS secara parsial terhadap abs_res. Gangguan heteroskedastisitas terjadi jika terdapat pengaruh yang signifikan antara KE dan KS (salah satu atau keduanya) terhadap absolut residualnya.

Bahan bacaan: Gujarati, D., 2004. Basic Econometric. Mc-Grawhill, New York.

Uji Normalitas dengan Kolmogorov Smirnov

Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah dikembangkan oleh para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk menguji normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa program statistik yang tinggal pakai. Berikut adalah salah satu pengujian normalitas dengan menggunakan teknik Kolmogorov Smirnov.Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai, terutama setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah sederhana dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat yang lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.

Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa, jika signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika signifikansi di atas 0,05 maka tidak terjadi

HARJANTO SUTEDJO hal 7

Page 8: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

perbedaan yang signifikan. Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut tidak normal.Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang signifikan antara data yang akan diuji dengan data normal baku, artinya….ya berarti data yang kita uji normal, kan tidak berbeda dengan normal baku.Jika kesimpulan kita memberikan hasil yang tidak normal, maka kita tidak bisa menentukan transformasi seperti apa yang harus kita gunakan untuk normalisasi. Jadi ya kalau tidak normal, gunakan plot grafik untuk melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis sehingga dapat ditentukan transformasi seperti apa yang paling tepat dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS

Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu Analyze, kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S. K-S itu singkatan dari Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test. Data yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda panah. Lalu tekan OK saja. Pada output, lihat pada baris paling bawah dan paling kanan yang berisi Asymp.Sig.(2-tailed). Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka distribusi data dinyatakan memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05 maka diinterpretasikan sebagai tidak normal.

Uji Normalitas dengan Skewness dan Kurtosis

Uji normalitas dengan Skewness dan Kurtosis memberikan kelebihan tersendiri, yaitu bahwa akan diketahui grafik normalitas menceng ke kanan atau ke kiri, terlalu datar atau mengumpul di tengah. Oleh karena itu, uji normalitas dengan Skewness dan Kurtosis juga sering disebut dengan ukuran kemencengan data. Pengujian dengan SPSS dilakukan dengan menu Analyze, lalu klik Descriptive Statistics, pilih menu Descriptives. Data yang akan diuji normalitasnya dipindah dari kotak kiri ke kanan, lalu tekan Options. Klik pada Distribution yaitu Skewness dan Kurtosis, tekan Continue, lalu tekan OK.

Pada output akan tampak nilai Statistic Skewness dan Statistic Kurtosis. Lalu hitunglah Zskew dengan persamaan Statistik : (Akar(6/N)) dengan N adalah jumlah observasi. Persamaan yang sama juga dipakai untuk menghitung Zkurt (Akar(24/N). Misalnya nilai statistic skewness adalah 0,5 dan statistic kurtosis adalah 0,9; dan jumlah data adalah 100, maka nilai Zskew adalah sebesar 2,041 dan nliai Zkurt adalah sebesar 3,674. Nilai tersebut kemudian dibandingkan dengan + 1,96 pada signifikansi 0,05 dan sebesar + 2,58 pada signifikansi 0,01. Jadi tampak bahwa Zskew (2,041 > 1,96) dan Zkurt (3,674 > 1,96).

Syarat data yang normal adalah nilai Zskew dan Zkurt > + 1,96 (signifikansi 0,05). Jadi data di atas dinyatakan tidak normal karena Zkurt tidak memenuhi persyaratan, baik pada signifikansi 0,05 maupun signifikansi 0,01. Kelebihan dari uji Skewness dan Kurtosis adalah bahwa kita dapat mengetahui kemencengan data, di mana data yang normal akan menyerupai bentuk lonceng. Kemungkinan yang ada adalah menceng ke kiri, jika nilai Zskew positif dan di atas

HARJANTO SUTEDJO hal 8

Page 9: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

1,96; atau menceng ke kanan jika Zskew bernilai negatif dan di bawah 1,96. Berdasarkan nilai Kurtosis maka dapat ditentukan bahwa data mempunyai nilai puncak yang terlalu tinggi jika Zkurt bernilai positif dan di atas 1,96; jika nilai puncak tidak ada atau data relatif datar maka nilai Zkurt adalah negatif dan di bawah 1,96.

Agak bingung ya??? Memang Skewness dan Kurtosis mempunyai kelebihan, yaitu kita dapat melakukan transformasi data berdasarkan nilai yang kita peroleh, hal yang tidak dapat dilakukan oleh Kolmogorov-Smirnov, tetapi kelemahannya apa?? Anda agak bingung kan?? Nah itu kelemahannya. Tapi kalau anda membaca dengan cermat dan tidak bingung, maka berarti kelemahan Skewness dan Kurtosis boleh dibilang minimal, meskipun sedikit lebih rumit dari pada Kolmogorov-Smirnov. Regresi Logistik   Regresi logistik (logistic regression) sebenarnya sama dengan analisis regresi berganda, hanya variabel terikatnya merupakan variabel dummy (0 dan 1). Sebagai contoh, pengaruh beberapa rasio keuangan terhadap keterlambatan penyampaian laporan keuangan. Maka variabel terikatnya adalah 0 jika terlambat dan 1 jika tidak terlambat (tepat). Regresi logistik tidak memerlukan asumsi normalitas, meskipun screening data outliers tetap dapat dilakukan. Untuk asumsi multikolinearitas pada regresi logistik silahkan simak di sini.

Interpretasi regresi logistik menggunakan odd ratio atau kemungkinan. Sebagai contoh, jika rasio keuangan ROA meningkat sebesar 1% maka kemungkinan ketepatan menyampaikan laporan keuangan meningkat sebesar 1,05 kali. Berarti semakin tinggi ROA kemungkinan tepat semakin tinggi. Atau jika rasio keuangan DER meningkat sebesar 2% maka kemungkinan ketepatan penyampaian laporan keuangan meningkat sebesar 0,98 kali atau bisa dikatakan menurun karena lebih kecil dari 1 yang berarti kemungkinan terlambat semakin tinggi.

Regresi Linear Berganda

Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan ratio.

Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang paling banyak digunakan adalah SPSS ( Statistical Package For Service Solutions ) .

Regresi Linear Sederhana

HARJANTO SUTEDJO hal 9

Page 10: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah variabel bebas terhadap satu buah variabel terikat. Persamaan umumnya adalah:

Y = a + b X.

Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah konstanta (intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat kartesius.

Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse --> regression --> linear. Pada jendela yang ada, klik variabel terikat lalu klik tanda panah pada kota dependent. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Lakukan dengan cara yang sama untuk variabel bebas (independent). Lalu klik OK dan akan muncul output SPSS.

Interpretasi Output

1. Koefisien determinasi

Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya.

2. Nilai t hitung dan signifikansi

Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel terikat, atau bisa juga dengan signifikansi di bawah 0,05 untuk penelitian sosial, dan untuk penelitian bursa kadang-kadang digunakan toleransi sampai dengan 0,10.

3. Persamaan regresi

Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:

1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka profitabilitas meningkat sebesar 0,55 juta rupiah.

2. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta rupiah.

Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati dan sesuai dengan rancangan penelitian. Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5, maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol.

Regresi Linear Berganda

HARJANTO SUTEDJO hal 10

Page 11: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya adalah:

Y = a + b1 X1 + b2 X2 + .... + bn Xn.

Dengan Y adalah variabel bebas, dan X adalah variabel-variabel bebas, a adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas.

Interpretasi terhadap persamaan juga relatif sama, sebagai ilustrasi, pengaruh antara motivasi (X1), kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut:

Y = 0,235 + 0,21 X1 + 0,32 X2 + 0,12 X3

1. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat

2. Jika variabel kompensasi meningkat, dengan asumsi variabel motivasi dan kepemimpinan tetap, maka kepuasan kerja juga akan meningkat.

3. Jika variabel kepemimpinan meningkat, dengan asumsi variabel motivasi dan kompensasi tetap, maka kepuasan kerja juga akan meningkat.

Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan kepemimpinan bernilai nol, karena ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1.

Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F hitung. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat signifikansi pada output SPSS. Dalam beberapa kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang signifikan, tetapi secara parsial tidak. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak membuat takut penjahat). Akan tetapi secara parsial, pistol tidak membuat takut seorang penjahat. Contoh lain: air panas, kopi dan gula menimbulkan kenikmatan, tetapi secara parsial, kopi saja belum tentu menimbulkan kenikmatan.

Penggunaan metode analisis regresi linear berganda memerlukan uji asumsi klasik yang secara statistik harus dipenuhi. Asumsi klasik yang sering digunakan adalah asumsi normalitas, multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi linearitas..

Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi; 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui

HARJANTO SUTEDJO hal 11

Page 12: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

signifikansinya. Koefisien determinasi sebaiknya menggunakan Adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan.

Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi logistik atau regresi ordinal.

Pertanyaan-pertanyaan yang sering muncul

1. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?

Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Untuk analisis regresi linear sederhana Signifikansi pada Uji F sama hasilnya dengan signifikansi pada uji t.

2. Kapan menggunakan uji satu arah dan kapan menggunakan uji dua arah?

Penentuan arah pengujian adalah berdasarkan masalah penelitian, tujuan penelitian dan perumusan hipotesis. Jika hipotesis sudah menentukan arahnya, maka sebaiknya digunakan uji satu arah, tetapi jika hipotesis belum menentukan arah, maka sebaiknya menggunakan uji dua arah. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan terhadap kinerja. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap kinerja. Nilai t tabel juga berbeda antara satu arah dan dua arah. Jika menggunakan signifikansi, maka signifikansi hasil output dibagi dua terlebih dahulu, baru dibandingkan dengan 5%.

3. Apa bedanya korelasi dengan regresi?

Korelasi adalah hubungan dan regresi adalah pengaruh. Korelasi bisa berlaku bolak-balik, sebagai contoh A berhubungan dengan B demikian juga B berhubungan dengan A. Untuk regresi tidak bisa dibalik, artinya A berpengaruh terhadap B, tetapi tidak boleh dikatakan B berpengaruh terhadap A. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara rancu, tetapi dalam ilmu statistik sangat berbeda. A berhubungan dengan B belum tentu A berpengaruh terhadap B. Tetapi jika A berpengaruh terhadap B maka pasti A juga berhubungan dengan B. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive, yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan (structural equation modelling).

HARJANTO SUTEDJO hal 12

Page 13: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Pengertian dan Penjelasan Uji Autokorelasi Durbin WatsonUji Autokorelasi Durbin Watson

Pengertian Uji Autokorelasi

Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Oleh karena itu, apabila asumsi autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi berpasangan secara bebas, melainkan berpasangan secara autokorelasi. Dalam kesempatan ini, kita hanya akan fokus pada tutorial uji autokorelasi dengan SPSS. Namun prinsip penting lainnya tetap akan kami bahas secara singkat dan padat serta mudah dipahami.

Uji autokorelasi di dalam model regresi linear, harus dilakukan apabila data merupakan data time series atau runtut waktu. Sebab yang dimaksud dengan autokorelasi sebenarnya adalah: sebuah nilai pada sampel atau observasi tertentu sangat dipengaruhi oleh nilai observasi sebelumnya.

Uji Autokorelasi

Pengertian autokorelasi

Autokorelasi adalah terjadi korelasi antara observasi ke-i dengan observasi ke-i-1. Contohnya yaitu: misalkan sampel ke-20, nilainya dipengaruhi oleh sampel ke-19. Sampel ke-19, nilainya dipengaruhi oleh sampel ke-18, dan seterusnya. Coba kita perhatikan pada contoh tersebut, yaitu ada nilai selisih antara nilai observasi ke-18 dengan ke-19, nilai observasi ke-19 dengan ke-20, dan seterusnya.

Demikian pengertian yang mudah dipahami oleh para pembaca, sebab kami disini tidak akan menjelaskan pemahaman tentang arti autokorelasi secara teoritis, sebab para pembaca nantinya malah akan kesulitan. Untuk pengertian teoritis silahkan anda mencari referensi buku-buku statistik. Dalam kesempatan ini, kami akan menjelaskan tutorial melakukan uji autokorelasi dengan SPSS.

Cara perhitungan secara manual perihal asumsi autokorelasi bukanlah dihitung pada semua variabel, melainkan cukup pada residualnya saja. Untuk cara perhitungan secara manual, kami sudah jelaskan secara detail dan lengkap di artikel kami yang berjudul: Durbin Watson Hitung dengan Excel.

Cara Mendeteksi Autokorelasi

Masalah asumsi Autokorelasi dapat dideteksi dengan menggunakan berbagai jenis analisis, yaitu antara lain:

HARJANTO SUTEDJO hal 13

Page 14: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

1. Uji Durbin Watson2. Uji Breucsh Godfrey3. Uji Durbin Watson h4. The Engle’s ARCH Test.

Uji Durbin Watson h statistik bisa dilakukan jika variabel terikat atau dependent variables merupakan variabel Lag. Lag artinya selisih antara sampel ke-i dengan sampel ke-i-1, seperti yang sudah dijelaskan di atas sebelumnya. Sedangkan uji durbit watson malah sebaliknya, bisa dilakukan jika variabel terikat bukanlah variabel lag.

Uji Durbin Watson

Uji Durbin watson adalah uji autokorelasi yang menilai adanya autokorelasi pada residual. Uji ini dilakukan dengan asumsi atau syarat antara lain:

1. Model regresi harus menyertakan konstanta.2. Autokorelasi harus diasumsikan sebagai autokorelasi first order.3. Variabel dependen bukan merupakan variabel Lag.

Autokorelasi first order adalah korelasi antara sampel ke-i dengan sampel ke-i-1 seperti yang sudah dibahas di atas sebelumnya.

Uji Durbin watson akan menghasilkan nilai Durbin Watson (DW) yang nantinya akan dibandingkan dengan dua (2) nilai Durbin Watson Tabel, yaitu Durbin Upper (DU) dan Durbin Lower DL). Dikatakan tidak terdapat autokorelasi jika nilai DW > DU dan (4-DW) > DU atau bisa dinotasikan juga sebagai berikut: (4-DW) > DU < DW. Untuk menentukan autokorelasi negatif atau positif, akan kami bahas pada artikel berikutnya.

Uji F dan Uji TAnwar Hidayat-

Uji F dikenal dengan Uji serentak atau uji Model/Uji Anova, yaitu uji untuk melihat bagaimanakah pengaruh semua variabel bebasnya secara bersama-sama terhadap variabel terikatnya. Atau untuk menguji apakah model regresi yang kita buat baik/signifikan atau tidak baik/non signifikan. Dalam artikel ini dijelaskan tentang Uji F dan Uji T dalam penelitian.

Jika model signifikan maka model bisa digunakan untuk prediksi/peramalan, sebaliknya jika non/tidak signifikan maka model regresi tidak bisa digunakan untuk peramalan.

HARJANTO SUTEDJO hal 14

Page 15: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

Uji F dan Uji T

 Cara Melakukan Uji F

Uji F dapat dilakukan dengan membandingkan F hitung dengan Tabel F: F Tabel dalam Excel, jika F hitung > dari F tabel, (Ho di tolak Ha diterima) maka model signifikan atau bisa dilihat dalam kolom signifikansi pada Anova (Olahan dengan SPSS, Gunakan Uji Regresi dengan Metode Enter/Full Model). Model signifikan selama kolom signifikansi (%) < Alpha (kesiapan berbuat salah tipe 1, yang menentukan peneliti sendiri, ilmu sosial biasanya paling besar alpha 10%, atau 5% atau 1%). Dan sebaliknya jika F hitung < F tabel, maka model tidak signifikan, hal ini juga ditandai nilai kolom signifikansi (%) akan lebih besar dari alpha.

Uji T

Uji t dikenal dengan uji parsial, yaitu untuk menguji bagaimana pengaruh masing-masing variabel bebasnya secara sendiri-sendiri terhadap variabel terikatnya. Uji ini dapat dilakukan dengan mambandingkan t hitung dengan t tabel atau dengan melihat kolom signifikansi pada masing-masing t hitung, proses uji t identik dengan Uji F (lihat perhitungan SPSS pada Coefficient Regression Full Model/Enter). Atau bisa diganti dengan Uji metode Stepwise.

Seperti kita telah pelajari pada berbagai artikel dalam website statistikian, bahwa ada banyak sekali yang membahas tentang Uji F dan Uji T. Pertanyaannya, sebenarnya apakah yang dimaksud dengan Uji F dan Uji T tersebut? Di atas kita telah pelajari sebagian dari yang dimaksud untuk menjawab pertanyaan ini. Namun perlu statistikian jelaskan lagi bahwa sebenarnya Uji F dan Uji T itu tidak hanya sebatas dari apa yang telah dibahas di atas, dimana di

HARJANTO SUTEDJO hal 15

Page 16: Uji Normalitas dengan Kolmogorov Smirnov - Official …sutedjo.staff.gunadarma.ac.id/.../Uji+Asumsi+Klasik+12.docx · Web viewUji Asumsi Klasik Uji asumsi klasik adalah persyaratan

UJI ASUMSI KLASIK

atas membahas tentang Uji F dan Uji T dalam konteks analisis regresi linear. Namun dalam konteks yang lain, bisa jadi ada dalam berbagai jenis analisis, misalnya Uji ANOVA, ANCOVA, MANOVA juga terdapat nilai F. Dan pada uji beda 2 sampel berpasangan, yaitu paired t test dan uji beda 2 sampel bebas, yaitu independen t test, juga ada nilai T.

Perbedaan Uji F dan Uji T

Jadi kesimpulannya: bahwa uji F adalah uji yang mengukur besarnya perbedaan variance antara kedua atau beberapa kelompok. Sedangkan Uji T adalah uji yang mengukur perbedaan dua atau beberapa Mean antar kelompok.

Dalam uji F dikenal istilah F Hitung dan Tabel F: F Tabel dalam Excel seperti yang telah dibahas di atas. F Hitung adalah nilai F hasil perhitungan analisis, yang kemudian nilainya akan dibandingkan dengan F Tabel pada Numerator dan Denumerator tertentu. Numerator disebut juga dengan Degree of Freedom 1, sedangkan Denumerator adalah Degree of Freedom 2. Misalnya pada Regresi Linear, Nilai Denumerator adalah jumlah sampel dikurangi jumlah variabel bebas dikurangi 1. Sedangkan nilai Numerator adalah jumlah variabel bebas. Untuk lebih jelasnya, silahkan pelajari tentang Tabel F: F Tabel dalam Excel.

Sama halnya dengan F Hitung, T Tabel juga digunakan untuk mengukur tingkat signifikansi sebuah analisis. Namun bedanya, T Tabel tidak mengenal istilah Numerator dan Denumerator, yang ada hanyalah nilai T pada Degree Of Freedom tertentu. Misalnya pada Uji Paired T Test, Degree of Freedom sebesar jumlah observasi pada kedua kelompok. Sedangkan pada Independen T Test, degree of freedom adalah sebesar jumlah sampel.

HARJANTO SUTEDJO hal 16