Tugas bu ifana
-
Author
habibah-munawaroh -
Category
Education
-
view
41 -
download
1
Embed Size (px)
Transcript of Tugas bu ifana
BAB I
PENDAHULUAN1.1. Latar BelakangSaat kita hendak melakukan suatu riset, seringkali kita dihadapkan pada pilihan metode. Metode statistik apakah yang cocok digunakan dalam riset kita tersebut. Dalam mempelajari statistik, biasanya kita langsung dihadapkan pada metode statistik parametrik, padahal tidak semua data cocok diolah dengan statistik parametrik. Walaupun perkembangan statistik parameter sudah sedemikian canggih namun statistik parametrik memiliki beberapa kekurangan, misalnya pada masalah-masalah sosial yang memiliki skala nominal dan rasio, statistik parametrik tidak mampu mengukur dengan baik. Kalaupun bisa, hal tersebut merupakan upaya yang berlebihan (excessively method). Maka Statistik parametrik digunakan jika kita telah mengetahui model matematis dari distribusi populasi suatu data yang akan dianalisis. Jika kita tidak mengetahui suatu model distribusi populasi dari suatu data dan jumlah data relatif kecil atau asumsi kenormalan tidak selalu dapat dijamin penuh, maka kita harus menggunakan statistik non parametrik (statistik bebas distribusi).1.2. Rumusan Masalah1. Apakah pengertian uji statistik parametrik?2. Apa saja ciri-ciri statistik parametrik?3. Apa saja Prinsip-prinsip Distribusi Normal?4. Apa saja jenis jenis uji statistik parametrik?5. Apa saja Keunggulan dan kelemahan statistik parametrik?1.3. Tujuan Penulisan1. Untuk mengetahui pengertian uji statistik parametrik?2. Untuk mengetahui ciri-ciri statistik parametrik?3. Untuk mengetahui Prinsip-prinsip Distribusi Normal?4. Untuk mengetahui jenis jenis uji statistik parametrik?5. Untuk mengetahui Keunggulan dan kelemahan statistik parametrik?1.4. Manfaat
Penulisan makalah ini diharapkan mampu memberikan manfaat yang signifikan bagi pembacanya dalam memahami uji statistik parametrik yang berguna dalam melakukan penelitiannya.
BAB IITINJAUAN PUSTAKA2.1. Statistik Parametrik2.1.1. Pengertian Statistik Parametri Statistika Parametrik adalah ilmu statistika yang mempertimbangkan jenis sebaran/distribusi data, yaitu apakah data menyebar normal atau tidak. Pada umumnya jika data tidak menyebar normal, maka data harus dikerjakan dengan metode Statistika Parametrik atau setidaknya dilakukan transformasi agar data mengikuti sebaran normal.Parametrik berarti parameter. Parameter adalah indikator dari suatu distribusi hasil pengukuran. Indikator dari distribusi pengukuran berdasarkan statistik parametrik digunakan untuk parameter dari distribusi normal.
Statistika parametrik juga adalah prosedur yang pengujian yang dilakukan berlandaskan distribusi. Salah satu karakteristiknya penggunaan prosedur ini melibatkan asumsi-asumsi tertentu. Contoh dari statistik parametrik adalah analisis regresi, analisis korelasi, analisis varians.2.1.2. Ciri-ciri Statistika Parametrik
1. Data berskala interval atau rasio2. Data tersebar secara normal, data di atas dan di bawah nilai rata-rata relatif seimbang jumlahnya.3. Ukuran sampel cukup besar (>30 atau 5-10% dari jumlah populasi)2.1.3 Prinsip-prinsip Distribusi NormalDistribusi normal dikenal juga dengan istilah Gaussian Distribution. Distribusi normal mengandung dua parameter, yaitu rata-rata (mean) dan ragam (varians). Parameter-parameter ini memberikan karakteristik yang unik pada suatu distribusi berdasarkan lokasi-nya (central tendency). Berbagai metode statistik mendasarkan perhitungannya pada kedua parameter tersebut. Penggunaan metode statistik parametrik mengikuti prinsip-prinsip distribusi normal. Prinsip-prinsip dari distribusi normal adalah:
1. Distribusi dari suatu sampel yang dijadikan obyek pengukuran berasal dari distribusi populasi yang diasumsikan terdistribusi secara normal.
2. Sampel diperoleh secara random, dengan jumlah sampel yang dianggap dapat mewakili populasi.
3. Distribusi normal merupakan bagian dari distribusi probabilitas yang kontinyu (continuous probability distribution). Implikasinya, skala pengukuran pun harus kontinyu. Skala pengukuran yang kontinyu adalah skala rasio dan interval. Kedua skala ini memenuhi syarat untuk menggunakan uji statistik parametrik. Bila syarat-syarat ini semua terpenuhi, maka metode statistik parametrik dapat digunakan. Namun, jika data tidak menyebar normal maka metode statistik nonparametrik dapat digunakan. Apa yang dapat dilakukan jika data tidak menyebar normal, namun statistik parametrik ingin tetap digunakan. Untuk kasus ini data sebaiknya ditransformasikan terlebih dahulu. Transformasi data perlu dilakukan agar data mengikuti sebaran normal. Transformasi dapat dilakukan dengan mengubah data ke dalam bentuk logaritma natural, menggunakan operasi matematik (membagi, menambah, atau mengali dengan bilangan tertentu), dan mengubah skala data dari nominal menjadi interval.a. Prosedur Pengujian Normalitas Data Secara Manual
1. Merumuskan formulir hipotesaHo: Data distribusi normal
Ha: Data Tidak berdistribusi normal2. Menentukan taraf nyata (a)
2 Tabel = 2 1- ; dk = ?ket: dk = k-3
dk = drajat kebebasan
k = banyak kelas interval
b. Prosedur pengujian normalitas data secara komputerisasi1. Cara pertamaAnalyze - Non Parametrik Test - 1 Sample KS
Setelah diklik pada menu ini, akan muncul dialog box seperti ini:
Sekarang yang kita lakukan hanya memasukkan variabel yang ingin kita uji normalitasnya ke dalam kotak Test Variable List. Kemudian klik OK. Hasil yang akan didapat kurang lebih seperti ini:
Lalu bagaimana cara membacanya? Untuk kepentingan uji asumsi, yang perlu dibaca hanyalah 2 item paling akhir, nilai dari Kolmogorov-Smirnov Z dan Asymp. Sig (2-tailed). Kolmogorov-Smirnov Z merupakan angka Z yang dihasilkan dari teknik Kolmogorov Smirnov untuk menguji kesesuaian distribusi data kita dengan suatu distribusi tertentu,dalam hal ini distribusi normal. Angka ini biasanya juga dituliskan dalam laporan penelitian ketika membahas mengenai uji normalitas.
Asymp. Sig. (2-tailed). merupakan nilai p yang dihasilkan dari uji hipotesis nol yang berbunyi tidak ada perbedaan antara distribusi data yang diuji dengan distribusi data normal. Jika nilai p lebih besar dari 0, maka kesimpulan yang diambil adalah hipotesis nol gagal ditolak, atau dengan kata lain sebaran data yang kita uji mengikuti distribusi normal.
Jangan terkecoh dengan catatan di bawah tabel yang berbunyi Test distribution is Normal. Catatan ini tidak bertujuan untuk memberitahu bahwa data kita normal, tetapi menunjukkan bahwa hasil analisis yang sedang kita lihat adalah hasil analisis untuk uji normalitas.2. Cara kedua
Cara yang pertama biasanya menghasilkan hasil analisis yang kurang akurat dalam menguji apakah sebuah distribusi mengikuti kurve normal atau tidak. Ini disebabkan uji Kolmogorov Smirnov Z dirancang tidak secara khusus untuk menguji distribusi normal, tetapi distribusi apapun dari satu set data. Selain normalitas, analisis ini juga digunakan untuk menguji apakah suatu data mengikuti distribusi posision dan sebagainya Cara kedua merupakan koreksi atau modifikasi dari cara pertama yang dikhususkan untuk menguji normalitas sebaran data.Kita memilih menuAnalyze - Descriptive Statistics - Explore...
Sehingga akan muncul dialog box seperti ini:
Yang perlu kita lakukan hanyalah memasukkan variabel yang akan diuji sebarannya ke dalam kotak Dependent List. Setelah itu kita klik tombol Plots... yang akan memunculkan dialog box kedua seperti ini:
Dalam dialog ini kita memilih opsi Normality plots with tests, kemudian klik Continue dan OK. SPSS akan menampilkan beberapa hasil analisis seperti ini:
SPSS menyajikan dua tabel sekaligus di sini. SPSS akan melakukan analisis Shapiro-Wilk jika kita hanya memiliki kurang dari 50 subjek atau kasus. Uji Shapiro-Wilk dianggap lebih akurat ketika jumlah subjek yang kita miliki kurang dari 50.Jadi bagaimana membacanya? Kurang lebih sama seperti cara pertama. Untuk memastikan apakah data yang kita miliki mengikuti distribusi normal, kita dapat melihat kolom Sig. untuk kedua uji (tergantung jumlah subjek yang kita miliki). Jika sig. atau p lebih dari 0.1 maka kita simpulkan hipotesis nol gagal ditolak, yang berarti data yang diuji memiliki distribusi yang tidak berbeda dari data yang normal. Atau dengan kata lain data yang diuji memiliki distribusi normal.3. Cara ketigaJika diperhatikan, hasil analisis yang kita lakukan tadi juga menghasilkan beberapa grafik. Nah cara ketiga ini terkait dengan cara membaca grafik ini. Ada empat grafik yang dihasilkan dari analisa tadiyang penting juga untuk dilihat sebelum melakukan analisis yang sebenarnya, yaitu: Stem and Leaf Plot. Grafik ini akan terlihat seperti ini:
Grafik ini akan terlihat mengikuti distribusi normal jika data yang kita miliki memiliki distribusi normal. Di sini kita lihat sebenarnya data kita tidak dapat dikatakan terlihat normal, tapi bentuk seperti ini ternyata masih dapat ditoleransi oleh analisis statistik sehingga p yang dimiliki masih lebih besar dari 0.1. Dari grafik ini kita juga dapat melihat ada satu data ekstrim yang nilainya kurang dari 80 (data paling atas). Melihat situasi ini kita perlu berhati-hati dalam melakukan analisis berikutnya. Normal Q-Q Plots. Grafik Q-Q plots akan terlihat seperti ini:
Garis diagonal dalam grafik ini menggambarkan keadaan ideal dari data yang mengikuti distribusi normal. Titik-titik di sekitar garis adalah keadaan data yang kita uji. Jika kebanyakan titik-titik berada sangat dekat dengan garis atau bahkan menempel pada garis, maka dapat kita simpulkan jika data kita mengikuti distribusi normal.Dalam grafik ini kita lihat juga satu titik yang berada sangat jauh dari garis. Ini adalah titik yang sama yang kita lihat dalam stem and leaf plots. Keberadaan titik ini menjadi peringatan bagi kita untuk berhati-hati melakukan analisis berikutnya. Detrended Normal Q-Q Plots. Grafik ini terlihat seperti di bawah ini:
Grafik ini menggambarkan selisih antara titik-titik dengan garis diagonal pada grafik sebelumnya. Jika data yang kita miliki mengikuti distribusi normal dengan sempurna, maka semua titik akan jatuh pada garis 0,0. Semakin banyak titik-titik yang tersebar jauh dari garis ini menunjukkan bahwa data kita semakin tidak normal. Kita masih bisa melihat satu titik 'nyeleneh' dalam grafik ini (sebelah kiri bawah). Sekilas Mengenai outlier: Dari tadi kita membahas satu titik nyeleneh di bawah sana, tapi itu sebenarnya apa? Dan bagaimana kita tahu itu subjek yang mana?Titik 'nyeleneh' ini sering juga disebut Outlier. Titik yang berada nun jauh dari keadaan subjek lainnya. Ada beberapa hal yang dapat menyebabkan munculnya outlier ini:1. Kesalahan entry data.
2. Keadaan tertentu yang mengakibatkan error pengukuran yang cukup besar (misal ada subjek yang tidak kooperatif dalam penelitian sehingga mengisi tes tidak dengan sungguh-sungguh)
3. Keadaan istimewa dari subjek yang menjadi outlier.
Jika outlier disebabkan oleh penyebab no 1 dan 2, maka outlier dapat dihapuskan dari data. Tetapi jika penyebabnya adalah no 3, maka outlier tidak dapat dihapuskan begitu saja. Kita perlu melihat dan mengkajinya lebih dalam subjek ini.
Lalu bagaimana tahu subjek yang mana yang menjadi outlier? Kita bisa melihat pada grafik berikutnya yang dihasilkan dari analisis yang sama, grafik boxplot seperti berikut ini:
Sebelum terjadi kesalahpahaman saya mau meluruskan dulu bahwa tulisan C10,Q1, Median, Q3 dan C90 itu hasil rekaan saya sendiri. SPSS tidak memberikan catatan seperti itu dalam hasil analisisnya. Grafik ini memberi gambaran mengenai situasi data kita dengan menyajikan 5 angka penting dalam data kita yaitu: C10 (percentile ke 10), Q1 (kuartil pertama atau percentil ke 25), Median (yang merupakan kuartil kedua atau percentile 50), Q3 (atau kuartil ketiga atau percentile 75) dan C90 (percentile ke 90).
Selain itu dalam data ini kita juga dapat melihat subjek yang menjadi outlier, dan SPSS memberitahu nomor kasus dari subjek kita ini; yaitu no 3. Jadi jika kita telusuri data kita dalam file SPSS, kita akan menemukan subjek no 3 ini yang menjadi outlier dalam data kita.Catatan akhir: Sangat penting bagi kita untuk tidak sepenuhnya bergantung pada hasil analisis statistik dalam bentuk angka. Kita juga perlu untuk 'melihat' (dalam arti yang sebenarnya) data kita dalam bentuk grafik bahkan keadaan data kita dalam worksheet SPSS untuk memeriksa kejanggalan-kejanggalan yang mungkin terjadi.3.1.4. Jenis-Jenis Uji Statistik Parametrik1. Uji-tUji t atau t test adalah salah satu tes statistik yang dipergunakan untuk menguji kebenaran atau kepalsuan hipotesis nihil yang menyetakan bahwa di antara dua buah mean sampel yang diambil secara random dari populasi yang sama, tidak terdapat perbedaan signifikan.
Sebagai salah satu tes statistik parametrik, test t pertama kali dikembangkan oleh William Seely Gosset 1915. Pada waktu itu dia menggunakan nama samara Student dan huruf t yang terdapat dalam istilah tes t itu diambil dari huruf terakhir nama samara itu.
Uji-t digunakan untuk menguji signifikansi dalam satu kelompok sampel (satu rerata) atau dua kelompok sampel (dua rerata). Uji-t satu kelompok sampel menggunakan One Sample t-test. Uji-t dua kelompok sampel dibedakan menjadi dua, independent sample t-test dan paired t-test.
Independen sample t-test digunakan untuk menghitung dua kelompok sample yang tidak saling berhubungan. Sedangkan paired sample t-test digunakan untuk menghitung dua kelompok sample yang bepasangan/berkorelasi.a. Prosedur Pengujian uji-t secara manualPada tulisan kali ini, kita akan membahas mengenai perhitungan uji t secara manual. Jika sebelumnya telah dilakukan uji koefisiensi determinasi (KD) dalam penelitian, maka langkah selanjutnya adalah menguji hipotesis yang diajukan dalam penelitian digunakan uji t dengan rumus sebagai berikut :2. ANOVA
3. RegresiRegresi adalah salah satu analisis yang bertujuan untuk mengetahui pengaruh suatu variabel terhadap varibel lain. Dalam analisis regresi, variabel yang mempengaruhi disebut variabel independent variabel (variabel bebas) dan variabel yang dipengaruhi disebut dependent variabel (variabel terikat). Jika dalam persamaan regresi hanya terdapat satu variabel terikat, maka disebut sebagai regresi sederhana. Sedangkan jika variabel bebasnya lebih dari satu, maka disebut sebagai persamaan regresi berganda. Regresi berguna untuk mengetahui pengaruh dari variabel bebas terhadap variabel terikat dalam analisis regresi pengaruh dari varabel bebas terhadap variabel terikat dapat dituliskan persamaan regresi4. Korelasi
3.1.5. Keunggulan dan Kelemahan Statistik Parametrik 1. Keunggulan a. Syarat syarat parameter dari suatu populasi yang menjadi sampel biasanya tidak diuji dan dianggap memenuhi syarat, pengukuran terhadap data dilakukan dengan kuat.b. Observasi bebas satu sama lain dan ditarik dari populasi yang berdistribusi normal serta memiliki varian yang homogen.
2. Kelemahan a. Populasi harus memiliki varian yang sama.b. Variabel-variabel yang diteliti harus dapat diukur setidaknya dalam skala interval.c. Dalam analisis varian ditambahkan persyaratan rata-rata dari populasi harus normal dan bervarian sama, dan harus merupakan kombinasi linear dari efek-efek yang ditimbulkan.
BAB III
PENUTUP
Statistik dapat digunakan untuk menguji suatu hipotesis dengan kebenaran secara ilmiah yang sering disebut dengan statistik inferensial. Statistik dapat meramal suatu kejadian di masa depan dengan menggunakan data yang ada di masa sekarang yang sering disebut dengan probabilitas. Statistik parametrik merupakan salah satu macam statistik, yang salah satu fungsinya untuk menghitung korelasi atau pengaruh suatu variabel terhadap variabel lainnya yang tercakup dalam regresi linear berganda. ANOVA adalah menguji rata-rata satu kelompok / lebih melalui satu variabel dependen / lebih berbeda secara signifikan atau tidak
ONE WAY ANOVA satu variabel dependen (kuantitatif) dan satu kelompok (kualitatif).
Satu variabel dependen tetapi kelompok berbeda
UNIVARIAT ANOVA
Variabel dependen lebih dari satu tetapi kelompok sama
MULTIVARIAT ANOVA
Variabel dependen lebih dari satu dan kelompok berbeda
Korelasi adalah hubungan keterkaitan antara dua atau lebih variabel.Angka koefisien korelasi ( r ) bergerak -1 r + 1
Negatif makin besar nilai variabel 1 menyebabkan makin kecil nilai variabel 2.contoh:makin banyak waktu bermain, makin kecil skor ulangan korelasi negatif antara waktu bermain dengan nilai ulangan
Positif Makin besar nilai variabel 1 menyebabkan makin besar pula nilai variabel 2. Contoh: makin banyak waktu belajar makin tinggi skor ulangan Korelasi positif antara waktu belajar dengan nilai ulangan.
Nol Tidak ada atau tidak menentunya hubungan dua variabel.contoh : pandai matematika dan jago olahraga ; pandai matematika dan tidak bisa olahraga ; tidak pandai matematika dan tidak bisa olahraga korelasi nol antara matematika dengan olahraga
t = r
113