Internet Beta Adlh

download Internet Beta Adlh

of 12

Transcript of Internet Beta Adlh

http://zencaroline.blogspot.com/ regresi ganda http://faculty.chass.ncsu.edu/garson/PA765/regress.htm y Regresi berganda dapat menetapkan bahwa satu set variabel independen menjelaskan proporsi varians dalam variabel 2), dependen pada tingkat signifikan (melalui uji signifikansi dari R dan dapat menetapkan pentingnya prediksi relatif dari variabel independen (dengan membandingkan bobot beta , koefisien standar). y Persamaan regresi berganda mengambil bentuk y = b 1 x 1 + b 2 x 2 + ... + B n x n + c. Itu sudah b adalah koefisien regresi, yang mewakili jumlah perubahan variabel dependen y ketika perubahan independen yang sesuai 1 unit.Versi standar dari koefisien b adalah bobot beta. y Istilah daya dapat ditambahkan sebagai variabel independen untuk mengeksplorasi efek lengkung. y Cross-product istilah dapat ditambahkan sebagai variabel independen untuk mengeksplorasi efek interaksi. y Satu dapat menguji signifikansi perbedaan dua R 2 s 'untuk menentukan apakah menambahkan variabel independen untuk model membantu secara signifikan. ---- SEM y Menggunakan regresi hirarkis, orang dapat melihat bagaimana varians yang paling dalam tergantung dapat dijelaskan oleh satu atau satu set variabel independen baru, atas dan di atas yang menjelaskan dengan set sebelumnya. y R 2 --- persen dari varians dalam variabel dependen dijelaskan secara kolektif oleh semua variabel independen. y Regresi logistik digunakan untuk tanggungan dikotomis dan multinomial, dilaksanakan disini dengan prosedur logistik dan di atas dalam model linier umum. y Regresi logit menggunakan log-linier teknik untuk memprediksi satu atau lebih variabel dependen kategori. koefisien determinasi R2 y menceritakan persen dari varians dalam variabel dependen yang dapat dijelaskan oleh semua variabel independen secara bersama-sama. y untuk mengevaluasi sesuai dengan model y Nilai R-square merupakan indikator seberapa baik model cocok dengan data (misalnya, yang dekat R-kuadrat untuk 1,0 menunjukkan bahwa kita telah menyumbang hampir semua variabilitas dengan variabel yang ditentukan dalam model). y jika tidak ada hubungan antara X dan variabel Y, R-square akan 0 y Jika X dan Y adalah sempurna terkait, R-square = 1 y R-square akan jatuh di suatu tempat antara 0,0 dan 1,0 y Jika kita memiliki R-square sebesar 0,4, kita telah menjelaskan 40% dari variabilitas asli, dan yang tersisa dengan sisa 60% variabilitas y Ini adalah proporsi variabilitas dalam satu set data yang dicatat oleh model statistik. y R2 adalah statistik yang akan memberikan beberapa informasi tentang kebaikan sesuai model. Dalam regresi, R2 2 koefisien determinasi adalah ukuran statistik dari seberapa baik garis regresi mendekati titik data yang nyata.R dari 1,0 menunjukkan bahwa garis regresi sempurna sesuai data. y Nilai untuk R2 dapat dihitung untuk setiap jenis model prediktif, yang tidak perlu memiliki dasar statistik. y R-squared meningkat seperti yang kita meningkatkan jumlah variabel dalam model. Hal ini menggambarkan kelemahan 2, ke salah satu kemungkinan penggunaan R di mana orang mungkin mencoba untuk memasukkan lebih banyak variabel 2. dalam model sampai "tidak ada peningkatan lebih". Hal ini menyebabkan pendekatan alternatif melihatRdisesuaikan 2 Penjelasan statistik ini hampir sama dengan R tetapi menghukum statistik sebagai variabel tambahan yang dimasukkan dalam model. Koefisien Korelasi r dan Beta (koefisien regresi standar) y r adalah ukuran korelasi antara nilai yang diamati dan diprediksi nilai dari variabel kriteria. y Bila Anda hanya memiliki satu variabel prediktor dalam model Anda, kemudian beta setara dengan koefisien korelasi (r) antara prediktor dan variabel kriteria. y Bila Anda memiliki lebih dari satu variabel prediktor, Anda tidak bisa membandingkan kontribusi setiap variabel prediktor hanya dengan membandingkan korelasi koefisien. Beta (B) koefisien regresi dihitung untuk memungkinkan Anda untuk membuat semacam perbandingan dan untuk menilai kekuatan hubungan antara setiap variabel prediktor untuk variabel kriteria. y Beta (koefisien regresi standar) --- Nilai beta adalah ukuran seberapa kuat setiap variabel prediktor mempengaruhi kriteria (tergantung) variabel. Beta diukur dalam satuan deviasi standar. Sebagai contoh, nilai beta dari 2,5 mengindikasikan bahwa perubahan satu standar deviasi pada variabel prediktor akan menghasilkan perubahan 2,5 deviasi standar dalam variabel kriteria. Dengan demikian, semakin tinggi nilai beta semakin be dampak dari variabel prediktor pada variabel sar kriteria. y Dalam regresi berganda, untuk menafsirkan arah hubungan antara variabel, melihat tanda-tanda (plus atau minus) dari koefisien B. Jika koefisien B adalah positif, maka hubungan variabel ini dengan variabel dependen adalah positif (misalnya, semakin besar IQ baik nilai rata-rata), jika koefisien B adalah negatif maka hubungan negatif (misalnya, lebih rendah ukuran kelas yang lebih baik nilai tes rata-rata). Tentu saja, jika koefisien B adalah sama dengan 0 maka tidak ada hubungan antara variabel-variabel.

Analisis Regresi Hmm. Akhirnya kita sampai juga di sini. Analisis Regresi. Analisis ini cukup populer dalam penelitian-penelitian baik di psikologi, ekonomi atau biologi. Varian nya juga banyak. Dari analisis regresi yang biasa sampai antar waktu sampai regresi kuantil. Dalam kesempatan ini, kita akan ngobrolin tentang analisis regresi yang biasa dilakukan dalam penelitian psikologi. Beberapa menyebutnya Analisis Regresi Ordinary Least Square atau Conditional Mean Regression, atau ya yang kita sering sebut dengan Analisis Regresi. Analisis Regresi itu untuk apa? Analisis regresi sebenarnya sangat dekat dengan teknik korelasi. Beberapa penulis seperti Pedhazur (1997) membedakan dua model ini dan cenderung memandang analisis regresi lebih superior. Terlepas dari pendapat itu, analisis regresi memang dapat memberikan informasi lebih banyak daripada korelasi, yaitu prediksi. Salah satu hasil dari analisis regresi adalah garis regresi atau garis prediksi. Setelah kita mendapatkan garis regresi ini,kita dapat melakukan prediksi mengenai besarnya skor variabel dependen berda sarkan besarnya skor dari satu atau lebih variabel independen. Selain itu kita juga dapat mengukur seberapa tepat prediksi yang kita lakukan dengan garis prediksi yang kita dapatkan. Jadi analisis regresi itu untuk apa? Analisis regresi dilakukan jika kita ingin mengetahui kondisi hubungan antar variabel. Biasanya satu variabel dependen dengan satu atau lebih variabel independen. Jenis data dari variabel dependen biasanya berupa data kontinum. Sementara jenis data dari variabel independen dapat berupa data kontinum maupun kategorik. Analisis regresi juga dilakukan jika kita ingin mendapatkan garis regresi untuk melakukan prediksi dan memperoleh informasi mengenai seberapa baik prediksi dilakukan dengan garis tersebut. Artikel ini akan membahas materi mengenai analisis regresi sederhana, yaitu hubungan antara satu variabel dependen dengan satu variabel independen. Konsep mengenai analisis regresi sederhana ini dapat diterapkan ke analisis regresi dengan lebih da ri satu variabel independen. Analisis regresi dengan lebih dari satu variabel independen akan dibahas dalam postingan sendiri. Scatter Plot Jika kita membicarakan korelasi atau regresi sederhana, kita tidak dapat melepaskan diri dari scatter plot. Scatter plot berupa grafik yang menggambarkan hubungan antara dua variabel. Sesuai namanya, scatter plot berisi titik-titik (plots) yang tersebar (scatter) dalam suatu grafik. Penentuan posisi satu titik didasarkan pada besarnya nilai dari variabel independen dan dependen. Biasany a variabel independen akan digambarkan dengan sumbu x sementara variabel dependen pada sumbu y. Baiklah, untuk lebih jelasnya kita lihat contoh berikut: Tabel 1. Data Kasus

Tabel 1. merupakan data dari sepuluh orang siswa yang diberi tes numerik dan kemudian dilihat nilai ulangan mate matikanya. Jika dilihat sepintas rasanya kedua data itu saling terkait. Hmm. Bagaimana jika kita lihat scatter plotnya saja? Begini caranya: Pertama, kita buat dulu dua sumbu yang saling tegak lurus. Satu sumbu Y satu sumbu X. Sumbu X merupakan sumbu yang horizontal dan Y yang vertikal. Kedua, kita buat skala untuk tiap sumbu dimulai dari nilai terkecil untuk tiap variabel dikurangi 1. Jadi misalnya untuk vari bel tes a numerik, yang akan menjadi sumbu X, kita mulai sumbu X ini dengan angka 5. Ketiga, kita letakkan setiap poin dalam grafik tersebut berdasarkan nilainya pada sumbu X dan sumbu Y. Misalnya untuk poin pertama, kita meletakkan pada grafik dengan koordinat (6,7). Hasil dari grafik tersebut adalah scatter plot seperti yang terlihat pada gambar 1. berikut:

Jika dilihat sepintas kita bisa melihat bahwa titik-titik tersebut memiliki pola yang cenderung naik. Ini berarti semakin besar nilai variabel independen, nilai variabel dependen juga akan naik. Ya ya ini berarti ada korelasi yang positif antaravariabel

independen dan variabel dependen. Jika kita hitung angka korelasinya menggunakan rumus korelasi product momen, kita akan mendapatkan angka 0.446. Well, selesai sudah tugas kita jika ketertarikan kita hanya ingin melihat keeratan hubungan antar variabel. Tetapi jika kita ingin melakukan prediksi variabel dependen dari variabel independennya, kita membutuhkan informasi lebih banyak dari ini, informasi mengenai garis regresi yang dinyatakan dalam bentuk persamaan Prediksi Y=a +bX. Prediksi Y adalah pr ediksi variabel dependen dengan menggunakan informasi dari variabel dependen, a merupakan intercept, b merupakan slope. Garis Regresi Jadi bagaimana kita mendapatkan garis regresi ini? Sebenarnya kalau pertanyaannya hanya sampai di sana, jawabannya mudah . Buat saja sebuah garis yang menurut kita mewakili scatter plot dalam gambar 1. Yang manapun? tanya seseorang mungkin. Ya yang manapun, jawab saya. Loh tapi kok di buku-buku itu rumus-rumusnya beribet banget? Karena dalam buku-buku tersebut, garis regresi yang ingin didapatkan harus memiliki kriteria khusus. Garis regresi ini harus menghasilkan kesalahan prediksi paling kecil dibandingkan semua garis regresi yang mungkin dibuat. Kesalahan prediksi? Ya kesalahan prediksi. Tentu saja kita menginginkan prediksi kita tepat 100%, namun demikian dalam dunia nyata sulit sekali mendapatkan ketepatan prediksi sesempurna itu. Oleh karena itu pasti akan ada kesalahan prediksi. Misalnya kita buat saja sebuah garis regresi Prediksi dari Y=2*X. Jika ini diterapkan pada data kita sebelumnya, maka hasilnya akan seperti di tabel 2. Tabel 2. Tabel hasil prediksi dan kesalahan prediksi Y dari X

Prediksi dari Y adalah hasil perhitungan menggunakan garis prediksi yang kita tetapkan. Y prediksi Y merupakan kesalahan prediksi yang kita lakukan jika kita menggunakan garis regresi yang kita tetapkan tadi. Nah, tiap garis prediksi yang mungkin dibuat tentu saja memiliki kemungkinan salah prediksi. Dari semua garis prediksi yang mungkin dibuat, kita memilih satu yang menghasilkan kesalahan prediksi terkecil. Sebentarsebentar apa ini berarti kita harus menggambar banyak garis prediksi? Ya! Hehemaaf bercanda tidak kok. Kita tidak harus menggambar semua garis prediksi itu dan menghitung satu-satu seperti tadi. Ada sebuah teknik estimasi untuk mencari garis prediksi terbaik dalam arti memiliki kesalahan prediksi terkecil, yaitu Least Square Estimation atau sering dikenal dengan Ordinary Least Square. Dalam hal ini yang ingin dicari adalah garis prediksi yang menghasilkan jumlah kesalahan prediksi terkecil dalam bentuk kuadrat atau dirumuskan seperti ini: Tapi ini masih berarti kita perlu mencari nilai ini untuk setiap garis ini berarti kita masih tetap perlu menghitung satu -satu Tenang tenangKita akan menghitung satu-satu seandainya di dunia ini tidak ada Calculus. Bagaimana mungkin tokoh komik temannya Tintin menyelesaikan masalah ini? Sabar sabar yang saya maksud bukan tokoh komik, tapi calculus dalam matematika. Dengan memanfaatkan calculus kita dapat mencari garis regresi yang akan memberikan nilai kesalahan prediksi kuadrat yang terkecil. Di sini saya tidak akan cerita bagaimana si calculus bekerja, tetapi dengan menggunakan calculus ini ditemukan bahwa ternyata garis regresi akan menghasilkan kesalahan prediksi kuadrat terkecil jika

Yaitu jika Prediksi dari Y merupakan mean dari Y untuk setiap nilai dari X. Mean yang dimaksud di sini adalah mean populasi. Inilah sebabnya mengapa Ordinary Least Square regression juga sering disebut sebagai conditional mea regression, atau teknik n regresi yang didasarkan pada mean kondisional, atau mean dari Y untuk setiap nilai X. Parameter-Parameter Garis Regresi Lalu bagaimana rumus untuk menemukan garis regresi yang akan menghasilkan kesalahan prediksi kuadrat yang ter ecil? k Kita perlu mencari satu demi satu parameter dari garis regresi kita. Parameter-parameter yang saya maksud adalah intercept dan slope seperti yang telah saya sebutkan di atas. Intercept merupakan konstanta dalam persamaan regresi. Intercept sering dilambangkan sebagai a atau b0, yg merupakan nilai dari prediksi Y jika nilai dari X adalah nol (X=0). Intercept dapat memiliki makna praktis dalam suatu penelitian, tetapi dalam penelitian lain hanya memiliki makna matematik saja. Misalnya dalam suatu penelitian untuk menghubungkan jumlah jam latihan fisik dengan peningkatan berat badan per minggu ditemukan intercept sebesar 0.4 gram. Ini berarti jika seseorang tidak melaku kan latihan fisik sama sekali, ia akan mengalami peningkatan sebesar 0.4 gram per ming Tetapi dalam contoh kasus kita, misalnya gu. ditemukan intercept sebesar 0.5 tidak dapat dikatakan bahwa jika seseorang tidak memiliki kemampuan numerik, maka nilai matematika nya akan sama dengan 0.5. Dalam kasus terakhir, intercept hanya memiliki makna matematis saja. Slope merupakan tingkat kemiringan garis regresi, yang juga berarti berapa banyaknya peningkatan Y jika X meningkat sebanyak 1 poin. Misalnya saja dalam persamaan Y = 2X, ini berarti peningkatan 1 poin dari X akan diikuti peningkatan sebanya 2 poin dari k Y. Lalu bagaimana menghitung kedua parameter ini?

Untuk menghitung Slope kita gunakan rumus ini:

Dapat dilihat di sini bahwa rumus mencari slope ini mirip sekali dengan rumus mencari korelasi product momen. Bedanya terleta k pada penyebutnya. Pada rumus korelasi, KovarianXY dibagi standard deviasi dari X dan standard deviasi dari Y, sementara ketika menghitung slope, kita membagi kovarian ini dengan varian dari X. Sementara untuk menghitung intercept kita menggunakan rumus ini: Baiklah kita bisa menggunakan contoh tadi untuk ilustrasinya.

Jadi kita temukan b = 0.217 ini berarti peningkatan sebanyak 1 poin pada kemampuan numerik, akan diikuti dengan peningkatan sebanyak 0.217 poin pada nilai matematika. Dan intercept sebesar a = 6.471 yang dalam kasus ini tidak memiliki makna praktis. Jika digambar, garis regresi yang kita dapatkan itu akan terlihat seperti gambar 2. Garis regresi inilah yang memiliki tingka t kesalahan prediksi kuadrat yang paling kecil. Gambar 2. Garis regresi dari data kasus

R2 dan Signifikasi Parameter-Parameter Apakah pekerjaan kita sudah beres? Kan kita sudah menemukan garis prediksinya? Sayang sekali belum. Kita masih harus melakukan beberapa perhitungan terkait dengan seberapa baik garis regresi kita melakukan prediksi dan apakah parameter yang kita dapatkan ini berbeda dari nol di populasi atau signifikan. Untuk urusan yang pertama, terkait dengan seberapa baik garis regresi kita melakukan prediksi, kita dapat menggunakan nilai R 2 yang sering disebut juga sebagai Sumbangan Efektif. Dalam kasus ini, kita hanya meregresikan satu variabel dependen pada satu variabel independen, oleh karena itu nilai R2 bisa didapatkan dengan secara langsung mencari kuadrat dari korelasi antara ked ua variabel tersebut. Nilai korelasi product momen dari kedua variabel tersebut adalah 0.446. Angka ini tinggal dikuadratkan saja menjadi 0.199 yang berarti 19.9% variasi dari variabel dependen dapat dijelaskan oleh variabel independen. Angka inilah yang menggambarkan seberapa baik prediksi dilakukan oleh garis regresi. Semakin mendekati 100% makin baik. Memang dalam penelitian-penelitian di psikologi jarang ditemukan R2 yang besar. Angka 19.9% biasanya dianggap sudah cukup memuaskan. Berikutnya terkait dengan apakah kita dapat menyimpulkan bahwa parameter-parameter di populasi tidak sama dengan nol? Apakah b di populasi dan a di populasi tidak sama dengan nol. Untuk mengecek hal ini, pertama yang perlu dilakukan adalah menghitung nilai F yang menguji secara keseluruhan parameter-parameter ini. Nilai F ini juga dapat digunakan untuk menguji apakah nilai R2 yang kita peroleh juga signifikan. Jadi bagaimana melakukannya? Pertama, kita perlu menghitung JK Regresi, JK dalam dan JK Total. Seperti Anova ya? Ya memang benar. Langkah-langkah yang dilakukan memang seperti anova karena kita juga akan melakukan uji F di sini (Bahkan sebenarnya Regresi dan Anova

merupakan saudara dekat). Rumus untuk setiap JK dapat dilihat sebagai berikut:

Sebentarsebentar. Rumus JK dalam ini seperti .seperti Ya ya . JK dalam itulah kesalahan prediksinya dalam bentuk kuadrat. Ketiga JK ini akan distandardkan dengan membaginya dengan db masing -masing yang rumusnya sebagai berikut:

Hasil pembagian JK dengan db ini akan menghasilkan nilai MK (Mean Kuadrat). Nilai F did apatkan dari pembagian MK regresi dengan MK dalam atau :

Nah, nilai F ini yang kemudian kita konsultasikan ke tabel F untuk dicek signifikasinya. Baiklah kita kerjakan contoh kasus kita supaya jelas penerapan rumus-rumus ini ya. Saya membuat lagi sebuah tabel yaitu Tabel 4 untuk membantu ilustrasi hitungan dalam kasus ini. Tabel 4. Ilustrasi hitungan.

Dalam ilustrasi tersebut prediksi dari Y ( ) dihitung menggunakan garis regresi yang sudah kita dapatkan yaitu Y=6.471+0.217* X. Baris paling akhir, yaitu baris jumlah, merupakan nilai JK dari JK dalam, JK regresi dan JK Total berturut-turut. Kita bisa amati juga bahwa JK dalam +Jk regresi akan sama dengan JK Total. Perhitungan berikutnya yaitu db dan MK akan saya masukkan sekaligus dalam tabel rangkuman anava dalam tabel 5. Tabel 5. Tabel rangkuman anava

Karena F tabel > daripada F hitung, maka dapat disimpulkan bahwa kita gagal menolak hipotesis nol. Ini berarti R2 yang kita dapatkan di sampel besar kemungkinan hanya merupakan sampling error. Lalu bagaimana dengan signifikasi parameter-parameternya? Kita akan memanfaatkan uji t untuk menguji apakah parameterparameter regresi yang kita dapatkan itu signifikan atau tidak. Seperti yang pernah dibahas jauh sebelum ini, rumus t yang sangat umum adalah

Dalam hal ini statistik yang menjadi perhatian adalah b, oleh karena itu rumus t-nya akan menjadi seperti ini:

Jadi mari kita terapkan dalam kasus di atas :

Nilai t yang kita dapatkan ini dibandingkan dengan tabel t pada df = N-2. Dalam hal ini df-nya menjadi 7. Nilai t tabel dengan taraf signifikasi 5% pada df = 7 adalah 2.3646 Dengan demikian dapat kita lihat bahwa b yang kita peroleh tidak signifikan. Atau dengan kata lain kita tidak memiliki bukti kuat untuk menyatakan bahwa nilai b di populasi tidak sa dengan nol. ma Untuk a, rumusnya t nya tetap sama, hanya saja ada penyesuaian dengan standard deviasi dari a-nya. Rumus mencari nilai t untuk menguji a sebagai berikut:

Jika diterapkan:

Nilai ini juga dibandingkan dengan t tabel yang sama yaitu 2.3646. Dengan demikian dapat disimpulkan bahwa nilai a itu signifikan, atau nilai a di populasi dapat diharapkan tidak sama dengan nol. Jadi bagaimana? Karena nilai b tidak signifikan maka dapat disimpulkan bahwa kita belum memiliki bukti yang memadai bahwa kem ampuan numerik memiliki korelasi yang signifikan dengan nilai ulangan matematika. Dengan kata lain kita belum bisa memprediksi nilai ulangan dengan menggunakan skor pada tes kemampuan numerik. Dalam kasus kita, nilai a signifikan, tapi sayangnya dalam kasus ini nilai a tidak memiliki makna praktis sehingga tidak dapat diinterpretasi dengan baik. Analisis Regresi Ganda Bagaimana jika kita hendak melakukan analisis regresi dengan lebih dari satu prediktor atau variabel independen? Kita tetap dapat menggunakan analisis regresi, hanya saja saat ini melibatkan lebih dari satu prediktor dalam analisisnya. Analisis regresi se perti ini sering disebut dengan analisis regresi ganda (Multiple Regression Analysis). Sebagai catatan: baik analisis regresi sederhana maupun analisis regresi ganda, keduanya berada dalam satu bendera yang sama yaitu Analisis Regresi. Jadi keduanya bukan merupakan teknik analisis yang berbeda, tetapi analisis yang sama hanya saja diterapkan pada situasi yang berbeda. Pada dasarnya, pemikiran mengenai analisis regresi ganda ini merupakan perluasan dari prinsip -prinsip analisis regresi sederhana yang dibahas dalam postingan sebelumnya. Karena melibatkan lebih dari satu prediktor, tentu saja perhitungan dalam analisis regresi ganda akan lebih rumit. Dalam beberapa hal saya masih menganggap perlu untuk menampilkan rumus-rumus untuk kepentingan memperoleh pemahaman bukan untuk perhitungan semata. Jadi kita masih akan bertemu dengan beberapa rumus yang mungkin agak rumit dalam postingan ini. Harap sabar ya Regresi Ganda dan Regresi dengan Satu Prediktor Sebenarnya pemikiran mengenai analisis regresi ganda itu seperti melakukan beberapa kali analisis regresi satu kali untuk tiap , prediktor. Analisis regresi ganda menjadi lebih rumit karena seringkali kedua prediktor memiliki hubungan yang mempengaruhi hubungan tiap prediktor dengan kriterion. Hal ini yang membuat hasil analisis regresi dengan menggunakan lebi dari satu h prediktor akan berbeda dengan analisis regresi untuk tiap prediktornya. Perbedaan muncul misalnya dalam hasil estimasi b danR2 nya. Baiklah saya akan berikan contoh untuk ilustrasi poin ini. Contoh yang saya berikan adalah ketika kedua predikt r memiliki korelasi o yang sangat kecil dan hampir nol (sebenarnya saya ingin membuatnya benar-benar nol tapi agak sulit sepertinya). Anggaplah ada dua prediktor yaitu a dan b dan satu kriterion c. Yang pertama saya melakukan analisis regresi dengan melibatkan satu prediktor saja. Hasil analisis dengan menggunakan SPSS 16 dapat dilihat sebagai berikut:

Gambar 1. R kuadrat dengan melibatkan a saja

Gambar 2. R kuadrat dengan melibatkan b saja

Gambar 3. R kuadrat dengan melibatkan a dan b Dari ketiga tabel di atas dapat dilihat bahwa nilai R kuadrat yang dihasilkan dari analisis regresi yang melibatkan dua prediktor kurang lebih adalah jumlah dari R kuadrat dari analisis regresi untuk tiap prediktornya: 0.549 =0.478+0.070.

Gambar 4. nilai slope dengan melibatkan a saja

Gambar 5. nilai slope dengan melibatkan b saja

Gambar 6. nilai slope untuk tiap variabel dengan melibatkan a dan b Dari gambar 4 sampai 6, dapat kita lihat bahwa besarnya slope untuk tiap variabel kurang lebih sama antara slope yan g didapatkan dari hanya melibatkan satu prediktor dengan slope yang didapatkan dari dua prediktor. Hal ini terjadi karena bagian dari variasi d yang dijelaskan oleh a adalah murni bagian yang terpisah dari bagian variasi d y ang dijelaskan oleh b, karena kedua prediktor tersebut tidak berkorelasi. Begini gambarnya:

Gambar 7. Ilustrasi regresi dengan dua prediktor yang tidak saling berkorelasi.

Tentu saja kita akan sangat jarang berhadapan dengan situasi ini. Situasi lain yang lebih sering dijumpai dalampenelitian adalah ketika kedua prediktor saling berkorelasi. Korelasi dua prediktor ini mengakibatkan bagian dari variasi kriterion yang dijela skan oleh prediktor yang satu bukan merupakan bagian yang murni terpisah dari bagian yang dijelaskan prediktor la atau dengan kata lain in ada overlap antara bagian yang dijelaskan oleh a dan b. Oleh karena itu bagian ini perlu diidentifikasi agar tidak terhitungulang (lihat gambar 8.).

Gambar 8. Ilustrasi analisis regresi yang melibatkan dua prediktor yang berkorelasi Estimasi Parameter dalam Regresi Ganda Seperti yang dijelaskan sebelumnya, estimasi parameter dalam regresi ketika melibatkan lebih dari dua prediktor, perlu memperhitungkan korelasi antar prediktor. Ini tercermin dalam rumus-rumus untuk mencari tiap parameter. Dalam artikel ini, penjelasan analisis regresi ganda melibatkan hanya dua prediktor saja demi kemudahan pemaparan. Oleh karena itu rumus dari garis prediksi yang akan dicari adalah

Slope Rumus untuk mencari b1 maupun b2 mirip. Dapat dilihat sebagai berikut:

Dapat dilihat dalam kedua rumus di atas, bahwa nilai b selalu didapatkan dari korelasi antara variabel yang dicari b -nya dengan variabel dependen (ry1), yang kemudian dikoreksi dengan korelasi antara variabel independen lain dengan variab dependen el (ry2) dan korelasi antar variabel independen (r12). Nah ketika korelasi antar variabel independen tidak sama dengan nol, maka dapat dikatakan korelasi ini dibersihkan (partial d e out) dari perhitungan nilai b atau dengan kata lain dikendalikan atau dikontrol. Oleh karena itu nilai b dalam analisis regresi ganda diinterpretasi sebagai kenaikan nilai prediksi Y untuk setiap poin kenaikan nilai X dengan mengendalikan nilai variabel inde enden p lain. Atau kenaikan nilai prediksi Y untuk setiap poin kenaikan nilai X jika nilai variabel independen lain tetap. Dari sinilah kemudian ide mengenai korelasi parsial dan semi parsial muncul, yaitu korelasi antara dua variabel dengan mengendalikan (partal i out) variabel lain. Ketika korelasi antar variabel independen sama dengan nol (r12=0), maka akan terjadi :

Jika kita lihat rumus b1 ini sama dengan rumus b1 pada analisis regresi dengan menggunakan satu prediktor saja, ini diakibatk an tidak ada korelasi yang dibersihkan dari perhitungan nilai b, karena tidak ada korelasi antar variabel independen. R kuadrat. Perhitungan R kuadrat dalam regresi ganda dapat dilakukan dengan banyak cara. Cara pertama dilakukan dengan menjumlahkan R kuadrat untuk tiap korelasi antara variabel independen dengan variabel dependen, lalu dikoreksi.

Rumus di atas juga menunjukkan bahwa R kuadrat dari garis regresi ganda merupakan jumlah r kuadrat tiap variabel yang dikoreksi atau dibersihkan dari korelasi antar variabel independen. Jika r12 = 0 maka

Selain cara pertama itu, cara lain yang terhitung mudah adalah dengan mencari koefisien korelasi antara prediksi y dengan y dari data penelitian. Koefisien korelasi yang didapatkan kemudian dikuadratkan. Cara kedua ini dapat dinyatakan dalam bentuk seperi t berikut: Regresi Ganda dalam SPSS Saya tidak akan memberikan contoh pengerjaan rumus-rumus di atas secara manual Yaaah.., begitu mungkin terdengar dari kejauhan sana. Ya ya saya bisa memahami kekecewaan anda semua. Tapi saya melakukannya demi kebaikan kita semua (hmm mulai tercium bau keangkuhan dan hawa kesombongan). Selain karena membutuhkan kesabaran dan ketelitian ekstra, saya juga menghindari tampilan yang mengerikan dari perhitungan statistik dengan harapan mengurangi pengalaman traumatik berurusan dengan statistik (hehe lebai banget). Saya juga merasa jauh lebih penting memfokuskan pada pemahaman konsep daripada penguasaan hitung-hitungannya, jadi dalam kesempatan ini mari kita segera beralih pada contoh regresi ganda dalam SPSS. (Mari. ). Contoh: Sebuah penelitian dilakukan untuk mengetahui korelasi dari nilai IPK mahasiswa dengan dua variabel lain yaitu nilai Tes Seleksi Masuk I dan Tes Seleksi Masuk II. Penelitian ini juga ditujukan untuk menemukan garis regresi untuk melakukan prediksi nilai IPK seorang mahasiswa berdasarkan informasi dari nilai Tes Seleksi Masuk I dan II. Baiklah, langkah pertama adalah dengan membuka data dalam SPSS tentu saja. Yang diikuti dengan klik menu AnalyzeRegression-Linear sehingga muncul dialog box seperti ini (gambar 9.)

Gambar 9. Variabel Indeks Prestasi Kumulatif dimasukkan ke dalam kotak Dependent sementara Tes Seleksi I dan Tes Seleksi II dimasukkan ke dalam kotak Independent(s). Kemudian klik OK, sehingga ditampilkan hasil seperti berikut (gambar 10, 11,12):

Gambar 10. Pada Gambar 10. ditampilkan tabel yang memberikan informasi mengenai besarnya R dan R kuadrat. R merupakan korelasi majemuk (multiple correlation) dari kedua variabel independen dengan variabel dependen. R kuadrat (R square) memberikan gambaran seberapa baik garis regresi dapat memberikan prediksi variabel dependen. Dalam hal ini 14% dari variasi variabel dependen yang dapat diprediksikan oleh garis regresi dengan menggunakan kedua tes seleksi sebagai prediktornya.

Gambar 11. Tabel dalam gambar 11, memberikan informasi mengenai signifikasi nilai R atau dapat juga dianggap sebagai uji hipotesis terkait dengan parameter-parameter regresi. Dalam tabel ditemukan nilai p (sig.) lebih kecil dari 0.05. Ini berarti nilai R secara signifikan berbeda dari 0 di populasi. Atau dapat juga diinterpretasi bahwa menggunakan garis regresi memberikan informasi lebih baik dibandingkan hanya dengan menggunakan mean dari variabel dependen. Interpretasi lain terkait dengan parameter, yaitu paling tidak ada satu nilai b yang signifikan. Jika kita membagi JK (Sum of Squares) dari Regression dengan JK dari Total, akan ditemukan nilai yang sama dengan R kuadrat.

Gambar 12. Tabel berikutnya dalam gambar 12. memberikan informasi mengenai besarnya slope dan intercept serta signifikasi dari tiap koefisien tersebut. Slope untuk Tes Seleksi I adalah 0.049 sementara Tes Seleksi II adalah 0.090. Intercept dari persamaan garis regresi ini adalah 1.932. Semua parameter tersebut signifikan dengan taraf 5%. Ini berarti garis regresi untuk memprediksi IP Kumulatif mahasiswa adalah sebagai berikut: Arti dari slope untuk Tes Seleksi masuk : dengan mengendalikan nilai Tes Seleksi II, tiap kenaikan satu poin dalam Tes Seleksi I akan diikuti oleh prediksi IPK sebanyak 0.049 poin. Atau : kenaikan 1 poin nilai Tes seleksi I akan diikuti oleh kenaikan prediksi IPK, jika nilai Tes Seleksi II tetap. Baiklah demikian kiranya pembahasan mengenai analisis regresi ganda. Tentu saja banyak bunga -bunga di sekitar analisis regresi ganda ini yang belum bisa dibahas dalam postingan ini. Korelasi Antara A Dan B Positif Signifikan = Jika A Tinggi Maka B Juga Tinggi? Kisah berikut ini kisah nyata yang sudah dimodifikasi karena keterbatasan ingatan saya. Data penelitian yang ditunjukkan di sini berasal dari penelitian sungguhan, dan telah mendapat ijin dari penelitinya. Nama dan identitas disamarkan, kecuali nama saya tentunya Saya sempat mendapat pertanyaan yang sangat bagus dari seorang teman mahasiswa. Penelitiannya menggunakan teknik analisis korelasi produk momen pearson. Hasil analisisnya menyatakan adanya korelasi yang positif dan signifikan. Masalah muncul ketika ia melakukan kategorisasi subjek ketika menggunakan kriteria hipotetik(lihat catatan kaki no 1). Jumlah subjek dengan kategori rendah dan sangat rendah pada variabel A jauh lebih sedikit daripada subjek dengan kategori rendah dan sangat rendah di variabel B. Keadaannya bahkan lebih dramatis; tidak ada subjek yang berada pada kategori rendah dan sangat rendah di variabel A (lihat tabel 1.).

tabel 1. Hal ini kemudian dipertanyakan oleh dosen-dosen pengujinya. Apakah hasil analisisnya sudah benar? Asumsinya mungkin begini: Korelasi yang positif signifikan berarti jika skor subjek pada variabel A tinggi, maka skor subjek pada variabel B juga tinggi. Dengan berpegang pada asumsi tersebut, maka jika jumlah subjek dengan skor rendah dan sangat rendah pada variabel B itu banyak, seharusnya di variabel A juga banyak subjek masuk kategori rendah dan sangat rendah. Logis bukan? hmm Permasalahan ini muncul karena dua asumsi yang keliru bahwa (1) Korelasi yang positif signifikan berarti jika skor subjek pada variabel A tinggi berdasarkan kriteria hipotetik, maka skor subjek pada variabel B juga tinggi pada kriteria hipotetik; dan (2) korelasi signifikan itu berarti hubungan linear sempurna. Pertama: Interpretasi korelasi bukan seperti yang dituliskan di atas, melainkan semakin tinggi skor subjek pada variabel A, maka skor pada variabel B juga semakin tinggi. Apa bedanya? Artinya skor subjek tidak selalu harus tinggi, tapi jika skor si Budi di variabel A itu lebih tinggi daripada Wati, maka skor Budi di variabel B juga cenderung lebih tinggi daripada Wati. Pernyataanini tidak berbicara mengenai posisi skor Budi berdasarkan kriteria hipotetik sama sekali. Korelasi berbicara mengenai konsistensi posisi seseorang dalam kelompok relatif terhadap mean empirik(lihat catatan kaki 2) pada variabel A dan variabel B. Jika posisi subjek konsisten (cenderung tinggi pada variabel A dan juga variabel B relatif terhadap mean empirik) maka korelasi akan tinggi dan positif. Jika konsisten terbalik (cenderung tinggi pada variabel A tapi rendah pada variabel B atau sebalikny relatif a, terhadap mean empirik) maka korelasi akan tinggi dan negatif. Jika tidak konsisten korelasinya akan mendekati nol. Sebagai bukti penjelasan saya ini saya sajikan dua grafik. Dalam grafik pertama, garis-garis tipis didasarkan pada kategorisasi hipotetik, sementara dalam grafik kedua, garis-garis tipis didasarkan pada kategorisasi empirik.

grafik 1. Kategori Hipotetik

grafik 2. Kategori Empirik

Dalam kedua grafik ini dapat dilihat bahwa ketika menggunakan kategori hipotetik, data penelitian terlihat seolah -olah tersebar tidak merata di tiap kategori khususnya ditinjau dari variabel A. Data mengumpul dalam dua kategori paling kanan. Sementara jika menggunakan kategori empirik, data penelitian terlihat cukup merata dalam tiap kategori ditinjau dari variabel A. Situasi inidapat dibuktikan juga dengan membandingkan tabel 1 di atas yang menggunakan kriteria hipotetik dengan tabel 2 yang menggunakan kriteria empirik berikut ini:

tabel 2. Dari sini dapat disimpulkan tidak ada yang salah dengan hasil analisisnya. Masalah muncul ketika interpretasi korelasi ditera pkan pada kategorisasi hipotetik, sementara korelasi sendiri dihitung berdasarkan mean empirik. Hmm tapi bahkan ketika menggunakan kategori berdasarkan mean empirik sebaran antara kedua variabel tetap tidak sama. Coba lihat pada bagian sedang dan rendah. Pada Variabel B prosentase subjek dalam kategori Sedang 26.2% sementara pada Variabel A mencapai 40.47%. Situasi ini berbalik di kategori rendah, prosentase subjek dengan kategori rendah di Variabel B a da 40.47% sementara di Variabel A 26.19%. Mengapa demikian? Kedua. Jawabannya terdapat pada kesalahan asumsi kedua: korelasi signifikan itu berarti hubungan linear sempurna. Kesan yang kita tangkap ketika membaca pernyataan korelasi signifikan itu seolah-olah sama dengan mengharapkan adanya hubungan linear yang sempurna atau paling tidak sangat tinggi. Kita akan mengharapkan pola sebaran subjek dalam tiap kategori (dalam kategori empirik) akan sama untuk variabel A dan B. Tentu saja tidak demikian. Konsistensi pola sebaran antara variabel A danB tidak ada kaitannya dengan signifikasi, tetapi dengan nilai korelasi yang didapatkan. Dalam penelitian ini meskipun nilai korelasi yang didapatkan itu signifikan, tetapi nilai korelasinya sendiri hanya 0.34, jadi dapat dibilang tidak terlalu kuat. Lebih ja lagi, ini uh berarti kita tidak dapat berharap banyak akan menjumpai pola sebaran yang sangat konsisten antara variabel A dan B. Pola sebaran seperti dalam tabel 2, menurut saya, memang pola yang dapat diharapkan dari angka korelasi sebesar 0.34. Catatan Kaki 1 Kategori hipotetik yang dimaksud dalam tulisan ini adalah kategori yang dibuat berdasarkan mean hipotetik dan SD hipotetik. Pembuatan kategori hipotetik ini dapat dilihat dalam buku Penyusunan Skala Psikologi yang ditulis oleh Saiffuddin Azwar. 2 Mean empirik mengacu pada mean dari data sampel. Istilah ini digunakan untuk membedakannya dari mean hipotetik yang berasal dari nilai tengah skala di tiap item dikali jumlah item. Sumber bacaan mengenai mean empirik dan mean hipotetik/teore tik dapat dilihat dalam buku Penyusunan Skala Psikologi yang ditulis ole Saiffuddin Azwar. h Minggu, Agustus 26, 2007 Korelasi Bagian I: Apa itu Korelasi Korelasi atau Regresi? Pertanyaan seperti ini sering muncul ketika peneliti akan melakukan analisis statistik untuk melihat hubungan antar variabel. Jawaban yang sering saya dengar adalah: "Kalau korelasi itu untuk dua variabel, satu variabel independen dan satu variabel dependen.Sementara kalo regresi itu untuk lebih dari dua variabel, leb dari satu variabel ih independen dan satu variabel dependen." Ungkapan ini tidak sepenuhnya salah, karena regresi memang bisa digunakan untuk melihat hubungan antara lebih dari satu variabel independen dengan satu variabel dependen. Masalahnya adalah ungk apan ini tidak menggambarkan perbedaan utama antara regresi dan korelasi. Regresi juga bisa digunakan untuk menganalisis hubungan antara satu variabel independen dengan satu variabel dependen. Selain itu diperoleh kesan bahwa kedua teknik ini berbeda hanya pada tataran jumlah variabel yang ditangani, padahal perbedaan keduanya lebih dari itu. Apa itu Korelasi? Mungkin sebelum kita sampai ke sana, kita perlu membahas terlebih dulu apa itu teknik korelasi. Teknik korelasi merupakan tek nik analisis yang melihat kecenderungan pola dalam satu variabel berdasarkan kecenderungan pola dalam variabel yang lain. Maksudnya, ketika satu variabel memiliki kecenderungan untuk naik maka kita melihat kecenderungan dalam variabel yang lain apakah juga naik atau turun atau tidak menentu. Jika kecenderungan dalam satu variabel selalu diikuti oleh kecenderungan dalam variabel lain, kita dapat mengatakan bahwa kedua variabel ini memiliki hubungan atau korelasi. Ketika berbicara mengenai korelasi, biasanya orang (mahasiswa atau peneliti) akan berbicara mengenai korelasi antara dua atau lebih variabel yang memiliki skala pengukuran interval bukan kategorik. Sebenarnya pengertian korelasi juga dapat digunakan untuk menganalisis hubungan antara dua atau lebih variabel yang memiliki s kala pengukuran kategorik. Tapi untuk sementara kita sisihkan dulu saja pembahasannya agar tidak terlalu rumit. Angka yang digunakan untuk menggambarkan derajat hubungan ini disebut koefisien korelasi dengan lambang rxy. Teknik yang paling sering digunakan untuk menghitung koefisien korelasi selama ini adalah teknik Korelasi Product Momen Pearson. Teknik ini

sebenarnya tidak terbatas untuk menghitung koefisien korelasi dari variabel dengan skala pengukuran interval saja, hanya saja interpretasi dari hasil hitungnya harus dilakukan dengan hati-hati. Pemikiran utama korelasi product momen adalah seperti ini: y Jika kenaikan kuantitas dari suatu variabel diikuti dengan kenaikan kuantitas dari variabel lain, maka dapat kita katakan kedua variabel ini memiliki korelasi yang positif. Jika kenaikan kuantitas dari suatu variabel sama besar atau mendekati besarnya kenaikan kuantitas dari suatu variabel lain dalam satuan SD, maka korelasi kedua variabel akan mendekati 1. y Jika kenaikan kuantitas dari suatu variabel diikuti dengan penurunan kuantitas dari variabel lain, maka dapat kita katakan kedua variabel ini memiliki korelasi yang negatif. Jika kenaikan kuantitas dari suatu variabel sama besar atau mendekati besarnya penurunan kuantitas dari variabel lain dalam satuan SD, maka korelasi kedua variabel akan mendekati -1. y Jika kenaikan kuantitas dari suatu variabel diikuti oleh kenaikan dan penurunan kuantitas secara random dari variabel lain atau jika kenaikan suatu variabel tidak diikuti oleh kenaikan atau penurunan kuan titas variabel lain (nilai dari variabel lain stabil), maka dapat dikatakan kedua variabel itu tidak berkorelasi atau memiliki korelasi yang mendekati nol. Dari pemikiran ini kemudian lahirlah Rumus Korelasi Product Momen Pearson seperti yang sering kita lihat di buku. Ada beberapa rumus yang dapat diacu. Semuanya akan memberikan hasil r yang sama, hanya saja dengan melihatnya kita akan dapat melihat pemaknaan yang berbeda-beda. Rumus pertama :

Ada beberapa hal yang dapat kita pelajari dari rumus ini : 1. Jika setiap subjek yang memiliki nilai X lebih rendah dari meannya, memiliki nilai Y yang juga lebih rendah dari meannya, nilai r akan menjadi positif. Begitu juga jika setiap subjek yang memiliki nilai X lebih tinggi dari meannya, memiliki nilaiY yang lebih tinggi dari meannya. 2. Jika setiap subjek yang memiliki nilai X yang lebih tinggi dari meannya, memiliki nilai Y yang lebih rendah dari meannya maka nilai r akan menjadi negatif. Begitu juga jika tiap subjek yang memiliki nilai X lebih rendah dari meanny memiliki a nilai Y yang lebih tinggi dari meannya. 3. Jika tiap nilai X yang lebih tinggi dari meannya terkadang diikuti oleh nilai Y yang lebih tinggi terkadang lebih rendah dari meannya maka nilai r akan cenderung mendekati 0 (nol). Rumus Kedua

Nah dari rumus kedua ini dapat kita simpulkan bahwa nilai korelasi sebenarnya nilai kovarian dari dua variabel x dan y yang distandardkan dengan menggunakan standard deviasi x dan standard deviasi y sebagai denominatornya. Mengapa nilai kovarian perlu distandardkan? (ada yang bertanya apa itu kovarian? lihat di posting berikutnya ya...). Nilai kovarian sangat dipengaruhi oleh satuan skala yang digunakan oleh kedua variabel. Misalnya kita menghitung kovarian dari tinggi badan dengan panjang rambut , pengen tahu apakah tinggi badan berkorelasi dengan panjang rambut (iseng banget yak...). Kita menghitung tinggi badan dan panjang rambut dalam satuan meter. Kemudian kita hitung kovariannya. Setelah itu kita menggunakan data yang sama, hanya mengubah satuannya menjadi centimeter, lalu menghitung kovariannya. Nah kovarian dari hasil perhitungan kedua akan terlihat lebih besar daripada yang pertama. Lebih besar? Ya karena dengan menggunakan satuan centimeter, 1.4 meter akan menjadi 140 centimeter. Jika kita hitung kovariannya, perhitungan pertama akan menghitung dalam skala satuan (1.4, 1.5, dst) sementara perhitungan kedua akan menghitung dalam skala ratusan. Oleh karena itu perlu distandardkan agar data yang sama akan menghasilkan angka yang sama meskipun diubah skalanya. Rumus Ketiga

Rumus ketiga ini agak sulit ceritanya. Kalo nggak hati-hati bisa dimarah-marah sama Pedhazur (Pedhazur, 1997) soalnya. Begini: y Zx dan Zy itu berbicara mengenai nilai X dan Y dalam satuan SD. y Jika nilai X ada di bawah mean dari X maka nilai Zx akan negatif, jika nilai X ada di atas meannya maka nilai Zx akan positif. Begitu juga dengan Y. y Seperti pada rumus pertama, jika Zx dan Zy sepakat (keduanya positif atau negatif) maka nilai r akan positif. Jika Zx dan Zy berlawanan (jika yang satu positif yang lain negatif) maka nilai r akan negatif. y Nah misalnya ada seratus subjek memiliki nilai X dan Y. Lalu kita hitung satu-satu nilai Z dari X dan Y untuk tiap subjek. Tentu saja ada beberapa yang sangat sepakat yang lain agak sepakat yang beberapa berlawanan. Kemudian nilai-nilai Z ini dijumlahkan sehingga jika yang sepakat lebih banyak akan menghasilkan angka positif. Kalo yang berlawanan lebih banyak akan menghasilkan angka negatif. Kemudian hasil penjumlahan ini dicari rata -ratanya. y Jadi bisa dibilang nilai r itu akan menggambarkan rata-rata keadaan X dan Y dari semua subjek dalam kelompok. y Ribet ya? OK...OK... contohnya begini : misalnya ada sekelompok orang di stadion. Beberapa dari mereka (misalnya 80 orang) mengenakan baju hijau dan celana hijau, sisanya baju hijau celana merah (idih norak banget yak...). Kalo kamu ditanya bagaimana pakaian mereka? kita bisa bilang kebanyakan berpakaian sepakat hijau -hijau, karena tingkat kesepakatan hijau-hijau lebih dominan. Jadi bisa dibilang korelasi baju dan celana di kelompok itu positif. Semoga bisa lebih jelas ya. Fiuhh... Semuanya menghasilkan nilai r yang sama persis (kalo sampe beda pasti ada kesalahan dengan kalkulatornya...). Hanya saja dari tiap rumus kita bisa melihat atau mempelajari interpretasi yang berbeda dari nilai r. Further Study: Howell, D.C.(1984) Statistical methods for psychology. London : Duxbury Press Pedhazur,E.J.(1997) Multiple regression in behavioral research. Wadsworth:Thomson Learning