BAB II stat 2

38
II-26 BAB II LANDASAN TEORI Landasan teori adalah teori atau bahan-bahan dari berbagai sumber yang dijadikan sebagai pedoman untuk pengolahan data pada masing-masing modul. Masing-masing modul memiliki teori dan rumus yang berbeda-beda. Landasan teori dari masing-masing modul adalah sebagai berikut: 2.1. Korelasi Korelasi dalam kata lain korelasi adalah (corelation) yaitu salah satu teknik statistik yang digunakan untuk mancari hubungan antara dua variabel atau lebih yang bersifat kuantitatif. Hubungan (relationship) antara dua variabel dapat hanya karena kebetulan saja (accidentil), dapat juga merupakan hubungan sebab akibat. Dua variabel dikatakan berkorelasi jika perubahan pada variabel yang satu akan diikuti perubahan variabel lain secara teratur, dengan arah yang sama atau arah yang berlawanan (Djarwanto dan Subagyo,1981). Korelasi dapat dinyatakan dengan koefisien (r) dan merentang dari -1 sampai +1. Koefisien dinyatakan – atau + menunjukan korelasi

Transcript of BAB II stat 2

Page 1: BAB II stat 2

II-26

BAB II

LANDASAN TEORI

Landasan teori adalah teori atau bahan-bahan dari berbagai sumber yang

dijadikan sebagai pedoman untuk pengolahan data pada masing-masing modul.

Masing-masing modul memiliki teori dan rumus yang berbeda-beda. Landasan

teori dari masing-masing modul adalah sebagai berikut:

2.1. Korelasi

Korelasi dalam kata lain korelasi adalah (corelation) yaitu salah satu

teknik statistik yang digunakan untuk mancari hubungan antara dua variabel atau

lebih yang bersifat kuantitatif. Hubungan (relationship) antara dua variabel dapat

hanya karena kebetulan saja (accidentil), dapat juga merupakan hubungan sebab

akibat. Dua variabel dikatakan berkorelasi jika perubahan pada variabel yang satu

akan diikuti perubahan variabel lain secara teratur, dengan arah yang sama atau

arah yang berlawanan (Djarwanto dan Subagyo,1981). Korelasi dapat dinyatakan

dengan koefisien (r) dan merentang dari -1 sampai +1. Koefisien dinyatakan –

atau + menunjukan korelasi sempurna antara dua peubah. Sebaliknya, koefisien

nol berarti tidak ada korelasi sama sekali. Keseragaman dalam derajat korelasi

dinyatakan oleh koefisien yang merentang dari 0 sampai 1 dan dari -1 sampai 0.

Koefisien korelasi ini dapat dinyatakan bahwa jika terdapat data diatas dua

atau lebih variabel, maka dapat digunakan suatu cara yang mana menyatakan

bagaimana variabel-variabel itu berhubungan (Sudjana,1986). Mencoba mengukur

kekuatan hubungan antara dua peubah melalui sebuah bilangan disebut dengan

koefisien korelasi. Disimpulkan bahwa koefisien korelasi adalah ukuran hubungan

linier antara dua peubah X dan Y diduga dengan koefisien korelasi.

Page 2: BAB II stat 2

II-26

r=

Koefisien korelasi linier sederhana (r) adalah akar dari koefisien

determinasi linier sederhana (r²) atau,

r = =

karena nilai r² berkisar antara 0 sampai 1 maka nilai r terletak antara -1 dan +1

(r = = ± 1). r = 1, ini berarti ada korelasi positif sempurna antara X dan Y. r = -

1, ini berarti ada korelasi negatif sempurna antara X dan Y. r = 0, ini berarti tidak

ada korelasi antara X dan Y. Koefisien korelasi linier sebagai ukuran hubungan

linier antara dua peubah acak X dan Y dan dilambangkan dengan r. jadi r

mengukur sejauh mana titik–titik menggerombol sekitar sebuah garis lurus. Di

bawah ini adalah diagram pengamatan pencar bagi nilai n.

Page 3: BAB II stat 2

II-26

Gambar 2.1 Diagram Pengamat Pencar Nilai n

Gambar garis tarik lurus tersebut dapat disimpulkan, bila titik–titik

menggerombol mengikuti garis lurus dengan kemiringan positif, maka ada

korelasi positif yang tinggi antara kedua peubah, dan bila titik–titik

menggerombol mengikuti garis lurus dengan kemiringan negatif, maka antara

kedua peubah itu terdapat korelasi negatif yang tinggi. Korelasi antara kedua

peubah semakin menurun secara numerik dengan semakin memencarnya atau

menjauhnya titik-titik dari suatu garis lurus. Titik–titiknya mengikuti suatu pola

yang acak, dengan kata lain tidak ada pola seperti gambar. Disimpulkan korelasi

nol, dan disimpulkan tidak ada hubungan linier antara x dan y. Ukuran korelasi

linier antara peubah yang paling banyak digunakan disebut dengan koefisien

korelasi momen hasil kali pearson atau ringkasnya dapat disebut dengan koefisien

korelasi (Sudjana,1986).

2.1.1 Analisis korelasi

Analisis korelasi adalah metode statistik yang digunakan untuk

menentukan kuat tidaknya (derajat) hubungan linier antara dua variabel. Analisis

korelasi juga bertujuan menduga adanya persamaan regresi. Sementara dalam

analisis korelasi meliputi dua aspek yaitu mengukur kesesuaian garis regresi

terhadap data sampel atau disebut koefisien determinasi dan mengukur keeratan

hubungan antara variabel atau disebut dengan koefisien korelasi (Munir,2003).

Analisis korelasi sederhana adalah meneliti hubungan dan bagaimana eratnya

hubungan itu, tanpa melihat bentuk hubungan. Kenaikan di dalam suatu variabel

yang diikuti dengan kenaikan variabel yang lain dapat dikatakan bahwa kedua

variabel tersebut mempunyai korelasi yang positif. Kenaikan suatu variabel diikuti

dengan penurunan variabel lain, maka kedua variabel tersebut mempunyai

korelasi negatif. Suatu variabel dikatakan tidak mempunyai hubungan

(uncorrelated) apabila tidak ada perubahan terhadap suatu variabel tersebut

meskipun variabel lain mengalami perubahan. Pedoman untuk

menginterpretasikan koefisien korelasi (r), sebagai berikut.

Page 4: BAB II stat 2

II-26

Tabel 2.1 Interval Koefisien

Interval

Koefisien

Tingkat

Hubungan

0,00 - 0,199 Sangat rendah

0.20 - 0,399 Rendah

0,40 - 0,599 Sedang

0,60 - 0,799 Kuat

0,80 - 1,000 Sangat kuat

(Sumber: Munir,2003)

2.1.2 Pengujian Hipotesis dengan Asumsi ρ = 0

Signifikan ada atau tidak adanya hubungan antara variabel yang sedang

diselidiki dapat diketahui dengan menggunakan uji hipotesis terhadap koefisien

korelasi. Perumusan hipotesis dilakukan dengan menduga bahwa suatu variabel

mempunyai hubungan dengan variabel lain, penjelasannya sebagai berikut.

H0: ρ=0 (Tidak ada hubungan antara suatu variabel dengan variabel yang lain).

H1: ρ=0 (Terdapat hubungan yang signifikan antara suatu variabel dengan variabel

yang lain). Kesimpulan dibuat berdasarkan keputusan yang diambil. Keputusan

menerima H0 berarti tidak ada hubungan antara variabel yang satu dengan variabel

yang lain. Keputusan menolak H0 berarti terdapat korelasi yang signifikan antara

variabel yang satu dengan variabel yang lain. ρ=0 maka distribusi sampling r akan

simetris disekitar nol dengan varian. Distribusi samplingnya tergantung pada

besaran n (nilai ρ sudah ditetapkan) (Munir,2003).

Page 5: BAB II stat 2

II-26

Gambar 2.2 Grafik Distribusi Sampling

2.1.3 Koefisien Korelasi Parsial

Koefisien korelasi (r) mengukur keeratan hubungan linier antara dua

variabel. Dalam model regresi tiga variabel terhadap tiga koefisien korelasi: r12

(korelasi antara X1 dan X2), r13 (korelasi antara X1 dan X3), r23 (korelasi antara X2

dan X3). Koefisien korelasi itu dinamakan koefisien korelasi sederhana atau

koefisien korelasi tingkat nol. Rumus perhitungan koefisien korelasi itu adalah:

r =

r =

r=

r12, tidak menunjukan keeratan hubungan yang sebenarnya antara X1 dan

X2 karena variabel ketiga yaitu X3 mungkin berhubungan dengan X1 dan X2. Suatu

koefisien korelasi antara X1 dan X2 yang bebas terhadap pengaruh dari X3.

Koefisien korelasi demikian dinamakan koefisien korelasi parsial. Pada dasarnya

koefisien korelasi parsial hampir sama dengan koefisien regresi parsial.

2.1.4 Koefisien Determinasi

Redius merupakan ukuran untuk mengetahui apakah

garis regresi sampel sesuai dengan data. Redius yang besar berarti garis regresi

kurang sesuai, jika redius kecil berarti garis regresi sangat sesuai dengan data.

Jika semua data observasi terletak pada garis regresi, akan memperoleh garis

regresi yang sesuai sempurna, namun jarang terjadi. Koefisien determinasi r²

(untuk regresi dua variabel) atau R² (untuk regresi berganda) adalah suatu ukuran

kesesuaian garis regresi sampel terhadap data. Ukuran menentukan besarnya

Page 6: BAB II stat 2

II-26

koefisien determinasi mulai dengan mendefinisikan total variasi y (bukan varians

y). Total variasi y dirumuskan ².

Variasi y ini dapat dibedakan menjadi dua, pertama variasi yang dapat

diterangkan oleh persamaan regresi dan kedua variasi yang tak dapat diterangkan

oleh regresi atau variasi redius. r² adalah proporsi total variasi y yang dapat

diterangkan (bukan disebabkan) oleh persamaan regresi (variasi X). Menghitung

r² yang kelihatan lebih kompleks, tetapi memerlukan waktu perhitungan lebih

pendek adalah sebagai berikut.

r² =

2.2. Regresi

Regresi adalah peramalan, penaksiran, atau pendugaan (Iqbal

Hasan,2003). Menurut Walpole,1995 adalah persamaan matematika

memungkinkan peramalan nilai–nilai suatu peubah tak bebas (Dependent) dari

nilai–nilai suatu atau lebih peubah bebas (Independent). Persamaan regresi adalah

persamaan matematik yang memungkinkan peramalan nilai suatu peubah tak

bebas (dependent variable) dari nilai peubah bebas (independent variable).

Analisis regresi adalah sebuah teknik statistik yang digunakan untuk membuat

model atau fungsi dalam menyelidiki bentuk dua variabel atau lebih

(Mulyono,1990).

Analisis regresi bertujuan untuk mengestimasi suatu hubungan antara

variabel–variabel ekonomi, misalnya Y = f (X) dan untuk melakukan peramalan

atau prediksi nilai variabel dependen (Y), berdasarkan nilai variabel independen

(X). Regresi dibagi menjadi dua yaitu regresi liniear sederhana dan regresi liniear

berganda. Analisis regresi sederhana digunakan untuk mengetahui pengaruh dari

variabel bebas terhadap variabel terikat atau dengan kata lain untuk mengetahui

seberapa jauh perubahan variabel bebas dalam mempengaruhi variabel terikat.

Analisis regresi sederhana bertujuan juga mempelajari hubungan linier antara dua

variabel.

Page 7: BAB II stat 2

II-26

Analisis regresi berbeda dengan analisis korelasi. Analisis korelasi

digunakan untuk melihat hubungan dua variabel, maka analisis regresi digunakan

untuk melihat pengaruh variabel bebas terhadap variabel tergantung serta

memprediksi nilai variabel tergantung dengan menggunakan variabel bebas.

Analisis regresi data harus berskala interval atau rasio. Hubungan dua variabel

bersifat dependensi. Menggunakan analisis regresi diperlukan beberapa

persyaratan yang harus dipenuhi. Regresi linier sederhana adalah regresi yang

digunakan untuk meramalkan nilai peubah tak bebas (variabel Y) berdasarkan

peubah bebas (variabel X) yang telah diketahui nilainya. Maka di dapatkan rumus

dari regresi untuk nilai a dan nilai b adalah:

-b

Persamaan garis:

Dimana:

= variabel terikat (variabel yang diduga).

X = variabel bebas (variabel yang diketahui).

a,b = pendugaan parameter A dan B, koefisien regresi sampel.

a = menyatakan intersep atau perpotongan dengan sumbu tegak.

b = menyatakan slop (kemiringan garis regresi).

Analisis regresi sebagai kajian terhadap hubungan satu variabel yang

disebut sebagai variabel yang diterangkan (the explained variabel) dengan satu

atau dua variabel yang menerangkan (the explanatory). Variabel pertama disebut

juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel

bebas. Variabel bebas lebih dari satu, maka analisis regresi disebut regresi linear

berganda. Disebut berganda karena pengaruh beberapa variabel bebas akan

dikenakan kepada variabel tergantung. Regresi liniear berganda adalah digunakan

untuk meramalkan nilai peubah tak bebas (variabel Y) berdasarkan hasil

pengukuran pada beberapa peubah bebas (variabel , … ).

Page 8: BAB II stat 2

II-26

Analisis regresi berganda juga bertujuan untuk mempelajari hubungan

linier lebih dari dua variabel. Banyak kasus yang menggunakan regresi berganda,

pada umumnya jumlah variabel independent berkisar dua sampai empat variabel,

walaupun secara teoritis dapat digunakan banyak variabel bebas, namun

penggunaan lebih dari tujuh variabel independent dianggap tidak efektif.

Persamaan regresi berganda menggunakan metode kuadrat terkecil. Rumus-rumus

yang digunakan dalam regresi berganda adalah sebagai berikut.

Page 9: BAB II stat 2

II-26

Dimana,

a,b1,b2 = koefisien regresi linier berganda

ŷ = nilai rata-rata variabel Y

X1 = nilai rata-rata variabel X1

X2 = nilai rata-rata variabel X2

ΣY2 = jumlah kuadrat variabel Y

ΣX12 = jumlah kuadrat variabel X1

ΣX22 = jumlah kuadrat variabel X2

ΣX1Y = jumlah variabel X1 dikali variabel Y

ΣX2Y = jumlah variabel X2 dikali variabel Y

ΣX1X2 = jumlah variabel X1 dikali variabel X2

Metode eliminasi dan subtitusi

Telah disebutkan bahwa dalam analisis regresi tujuannya adalah menduga

fungsi regresi populasi berdasar fungsi regresi sampel setepat mungkin. Sampai

saat ini ada banyak metode untuk menyusun persaman regresi sampel, misalnya

metode free hand, least squares, dan maximum likelihood. Metode analisis regresi

yang paling banyak digunakan adalah metode least squares. Asumsi-asumsi

metode Least Squares adalah:

1. Error term u memiliki distribusi normal. Sebagai hasilnya, y dan distribusi

sampling koefisien regresi juga memiliki distribusi normal.

2. Rata–rata expected value dan error term untuk setiap nilai X sama dengan

nol , (ui Xi) = 0.

Page 10: BAB II stat 2

II-26

3. Varians error term adalah konstan pada setiap periode dan untuk semua

nilai Xi Var (ui Xi) =σ². Asumsi ini sering disebut homioscedasticity atau

equal variance.

4. Error term pada suatu observasi tidak berhubungan dengan error term

pada observasi yang lain.

5. Variabel bebas mempunyai nilai yang tetap dalam sampel yang berulang

atau variabel bebas merupakan variabel non-stokastis sehingga variabel

bebas tidak berhubungan dengan error term.

Analisis regresi mempunyai dua variabel yaitu variabel bebas (X) dan

variabel terikat (Y), berikut ini adalah perbedaan yang dimana analisis regresi

mempunyai dua variabel dalam satu metode. Perbedaan dari variabel terikat dan

variabel bebas adalah sebagai berikut.

Variabel bebas (X) variabel terikat

(independent variable) (dependent variable)

Variabel yang menjelaskan variabel yang dijelaskan

(ekplanatory variable) (ekplained variable)

Peramal yang diramal

(predictor) (predictend)

Yang meregresi yang diregresi

(regressor) (regressed)

Perangsangan / variabel kembali tanggapan

(stimulus or control variabel) (response)

Page 11: BAB II stat 2

II-26

2.3. Chi Square

Pengertian chi square atau khai kuadrat adalah sebuah uji hipotesis tentang

perbandingan antara frekuensi observasi dengan frekuensi harapan yang

didasarkan oleh hipotesis tertentu pada setiap kasus atau data (Diktat,2009). Khai

kuadrat adalah pengujian hipotesis tentang perbandingan antara frekuensi sampel

yang benar-benar terjadi (Subiyakto,1994). Khai kuadrat biasanya di dalam

frekuensi observasi berlambangkan dengan frekuensi harapan yang didasarkan

atas hipotesis dilambangkan . Ekspresi matematis tentang distribusi khai

kuadrat hanya tergantung pada suatu parameter, yaitu derajat kebebasan (d.f.).

Khai kuadrat mempunyai masing-masing nilai derajat kebebasan, yaitu distribusi

(kuadrat standard normal) merupakan distribusi khai kuadrat dengan d.f. = 1,

dan nilai variabel tidak bernilai negative. Kegunaan dari chi square untuk

menguji seberapa baik kesesuaian diantara frekuensi yang teramati dengan

frekuensi harapan yang didasarkan pada sebaran yang akan dihipotesiskan, atau

juga menguji perbedaan antara dua kelompok pada data dua kategorik untuk dapat

menguji signifikansi asosiasi dua kelompok pada data dua katagorik tersebut

(Mulyono,1990).

2.3.1 Tujuan dari Chi Square

Chi Square bertujuan untuk menguji kebebasan (independensi) antar

faktor dari data dalam daftar kontigensi atau uji kebebasan. Menguji kesesuaian

antara data hasil pengamatan dengan model distribusi dari mana data itu

diperoleh. Menguji apakah frekuensi yang diamati (diobservasi) berbeda secara

signifikan dengan frekuensi teoritis atau frekuensi yang diharapkan. Menguji

apakah data sampel mempunyai distribusi yang mendekati distribusi teoritis atau

hipotesis atau populasi tertentu seperti distribusi binomial, poison, dan normal

(Mulyono,1990).

2.3.2 Uji Chi Square

Page 12: BAB II stat 2

II-26

Uji Chi Square adalah uji hipotesis tentang perbandingan antara frekuensi

observasi dengan frekuensi harapan yang didasarkan oleh hipotesis tertentu pada

setiap kasus atau data (Diktat,2009). Terdiri dari beberapa uji yaitu:

2.3.3 Uji Kecocokan

Uji Kecocokan atau disebut goodness of fit test, hipotesis nol merupakan

suatu ketentuan tentang pola yang diharapkan dari frekuensi-frekuensi dalam

barisan kategori-kategori. Pola yang diharapkan harus sama dengan asumsi atau

anggapan atas kemungkinan kejadian yang sama atu bersifat umum. Perbedaan

frekuensi observasi dengan yang diharapkan harus dapat dilambangkan dengan

variabilitas secara sampling pada tingkat signifikansi yang diinginkan, pada

penerimaan hipotesis nol. Chi square didasarkan perbedaanya dari masing-masing

kategori dalam distribusi frekuensi. Menurut Subiyakto,1994 nilai chi squar

untuk pengujian perbedaaan antara pola frekuensi observasi dan frekuensi harapan

adalah sebagai berikut.

Dimana,

: frekuensi observasi.

: frekuensi harapan.

Menguji kecocokan derajat kebebasan (degree of freedom) sama dengan

jumlah kategori dikurangi jumlah estimator parameter yang didasarkan pada

sampel dan dikurang 1 dan bila dirumuskan menjadi.

d.f. = k – m – 1

Dimana,

k : Jumlah kategori data sampel.

M : Jumlah nilai–nilai parameter yang diestimasi.

Hipotesis nol menyatakan bahwa frekuensi-frekuensi observasi didistribusikan

sama dengan frekuensi harapan, tidak ada parameter estimator, sehingga nilai

m=0.

Page 13: BAB II stat 2

II-26

2.3.4 Uji Kebaikan Suai

Menurut Walpole,1995 uji kebaikan suai frekuensi yang teramati dengan

frekuensi harapan didasarkan pada besaran.

merupakan sebuah nilai bagi peubah acak yang sebaran penarikan

contohnya sangat menghampiri sebaran chi square. Lambang dan masing-

masing, menyatakan frekuensi teramati dan frekuensi harapan bagi sel ke-i.

Frekuensi yang teramati sangat dekat dengan frekuensi harapannya, nilai akan

kecil menunjukkan adanya kesuaian yang baik. Frekuensi yang teramati berbeda

cukup besar dari frekuensi harapannya, nilai akan besar sehingga kesesuaian

buruk. Kesesuaian yang baik akan membawa pada penerimaan , sedangkan

kesuaian yang buruk akan membawa pada penolakan . Banyaknya derajat

bebas dalam uji kebaikan suai yang didasarkan pada sebaran chi square, sama

dengan banyaknya sel dikurangi dengan banyaknya besaran yang diperoleh dari

data pengamatan (contoh) yang digunakan dalam perhitungan frekuensi

harapanya, dengan kata lain uji kebaikan suai disebut juga sebagai uji kecocokan.

Menurut Diktat,2009 langkah–langkah pengujian hipotesis, yaitu.

1. Menentukan formulasi hipotesis

: sesuai dengan

: tidak sesuai dengan

2. Menetukan nilai kritis

Derajat bebas (df/db/v) dan nilai tabel.

Df = k – 1

3. Menetukan kriteria pengujian

diterima apabila hitung

ditolak apabila hitung

4. Menetukan nilai uji satistik ( hitung)

Frekuensi harapan = total observasi

Page 14: BAB II stat 2

II-26

banyaknya jenis observasi5. Membuat kesimpulan

Menolak atau menerima berdasarkan kriteria pengujiannya.

2.3.5 Uji Tabel Kontigensi

Tabel Kontigensi memuat data yang diperoleh dari sampel random

sederhana dan diatur berdasarkan baris dan kolom. Nilai-nilai data tersebut

dinamakan frekuensi observasi ( ). Uji tabel kontigensi (contingency table test)

dapat menguji apakah kedua variabel saling independent. Gagasan ini didasarkan

atas anggapan bahwa nilai frekuensi observasi mendekati frekuensi harapan jika

kategori-kategori independent. Perbedaan-perbedaan yang besar akan mendukung

untuk menolak hipotesis independensi. Menurut Subiyakto,1994 apabila banyak

baris = r, banyak kolom = k, dan besar sampel n, nilai frekuensi harapan baris ke-i

dan kolom ke-j dapat diperoleh dengan rumus.

Dengan derajat kebebasan:

d.f. = (r - 1)(k - 1)

sedangkan rumus untuk memperoleh nilai adalah

Arti lain uji kebebasan disebut juga sebagai uji tabel kontigensi. Menurut

Diktat,2009 langkah–langkah pengujian hipotesis, yaitu.

1. Menetukan formulasi hipotesis

: kategori yang satu bebas dari kategori lainnya.

: kategori yang satu tidak bebas dari kategori lainnya.

2. Menetukan nilai kritis

derajat bebas (df/db/v) dan nilai tabel.

Df = (r - 1)(c - 1)

3. Menetukan kriteria pengujian

diterima apabila hitung

Page 15: BAB II stat 2

II-26

ditolak apabila hitung

4. Menentukan nilai uji statistik ( hitung)

Frekuensi harapan = total baris total kolom total observasi

5. Membuat kesimpilan

Menolak atau menerima berdasarkan kreiteria pengujiannya.

Rumus umum untuk mendapatkan frekuensi harapan bagi sebaran sel adalah

(Walpole,1995).

Frekuensi harapan = total baris total kolom total pengamatan

Menurut Walpole,1995 uji kebebasan untuk menghitung tabel kontigesi r x c

menggunakan rumus.

Penjumlahan dilakukan terhadap semua rc sel. dengan v = (r - 1)(c - 1)

derajat bebas, tolak hipotesis nol bahwa kedua penggolongan itu bebas pada taraf

nyata, bila selainnya diterima hipotesisnya nilai nol. Statistik yang digunakan

sebagai dasar untuk mengambil keputusan hanya dilampiri oleh sebaran chi

square. Nilai-nilai hitung bergantung pada frekuensi sel, dan berarti peluang

diskret yang sebaranya chi square yang kontinu yang menghampiri sebaran

penarikan bagi dengan sangat baik asalkan banyaknya derajat bebas lebih dari

pada 1. Tabel kontinu 2 x 2, yang hanya mempunyai 1 derajat bebas yang

biasanya diterapkan dengan (koreksi yate) bagi kekontinuan. Menurut

Walpole,1995 rumus yang telah dikoreksi adalah sebagai berikut.

Frekuensi harapannya besar, nilai yang terkoreksi maupun yang tidak

terkoreksi hampir sama dengan (koreksi yate) yang diharapkan. Harus digunakan

uji pasti (Fister-Irwin) yang dimana digunakan dalam (basic concepts of

probability and statistic), maka dari itu uji pasti ini harus menggunakan data atau

sampel yang ukurannya lebih besar.

Page 16: BAB II stat 2

II-26

2.4. Anova Satu Arah

Analisa varian (analysis of variance anova) digunakan untuk menguji

rata–rata dari tiga atau lebih populasi. Rata–rata populasi tersebut sama atau tidak

sama. Konsep dasar anova ditemukan oleh R.A.Fisher (Subiyakto,1994). Analisis

tersebut biasanya sering kali disebut dengan analisis ragam. Analisis ragam adalah

suatu metode untuk menguraikan keragaman total data menjadi komponen-

komponen yang mengukur sebagian sumber keragaman (Walpole,1995). Anova

digunakan untuk menguji perilaku antara dua variabel atau lebih. Menurut

Diktat,2009 cara untuk menguji anova adalah.

1. Menetukan formulasi hipotesis

2. Menetukan tararf nyata (X) dan f – tabel

3. Menetukan kriteria

Jika f – hitungan > f – tabel menjadi diterima

Jika f – hitungan ≤ f – tabel menjadi ditolak

4. Menetukan nilai statistik uji

5. Kesimpulan

Menurut Subiyakto,1994 konsep dasarnya adalah sebagai berikut.

1. Menghitung rata-rata masing-masing grup sampel dan menjelaskan kesalahan

baku rata-rata yang sama hanya didasarkan pada beberapa rata-rata

sampel.

2. Dengan formula

Didapat

Kemudian kesalahan baku dari rata-rata yang dihitung diatas dapat digunakan

untuk mengestimasi varian popilasi dari mana sampel diambil. Estimasi varian

Page 17: BAB II stat 2

II-26

populasi ini disebut kuadrat rata-rata diantara kelompok–kelompok (mean

square between groups: MSB).

3. Menghitung varian secara terpisah di dalam masing-masing kelompok sampel

dan berkaitan dengan masing-masing rata-rata kelompok. Kemudian

menyatukan nilai-nilai varian yang tertimbang dengan (n - 1) untuk masing-

masing sampel. Prosedur terimbang untuk varian ini adalah perluasan dari

prosedur untuk mengkombinasi dan menimbangkan dua varian sampel. Hasil

estimasi varian populasi disebut kuadrat rata–rata di dalam kelompok-

kelompok (mean square within groups: MSW).

4. Jika hipotesis nol: benar, kuadrat rata-rata MSB dan

MSW merupakan estimator yang tak bias dan independent dari varian

populasi yang sama (identik). Akan tetapi, jika hipotesis nol salah, nilai

harapan MSB lebih besar dari MSW. Sedikit saja ada perbedaan antara rata-

rata populasi akan membesarkan MSB walaupun tidak berpengaruh pada

MSW.

5. Berdasarkan pada pengamatan konsep 4 distribusi F dapat digunakan untuk

menguji perbedaan dua varian. Suatu pengujian satu sisi diperlukan distribusi

F. Menurut Subiyakto,1994 untuk menetukan nilai F digunakan rumus.

2.4.1 Analisa Varian Satu Arah

Menurut Subiyakto,1994 model anova satu arah atau nama lainnya (one-

way analysis of variance), digunakan untuk pengujian perbedaan antara K rata-

rata sampel apabila subyek–subyek ditentukan secara random pada setiap

beberapa grup atau kelompok perlakuan. Maka dalam model tersebut didapatkan

metode untuk menguji satu arah yaitu, rumusnya adalah sebagai berikut.

Dengan:

: rata-rata keseluruhan dari semua k populasi klasifikasi.

Page 18: BAB II stat 2

II-26

: efek klasifikasi dalam k kelompok

: kesalahan random yang tergabung dalam proses sampling.

Hipotesis nol dan hipotesis alternatif untuk anova satu arah adalah

.

.

Perhitungan anova satu arah yaitu dengan mencari MSB (mean square

between the A treatment groups) atau biasa disebut JKT(jumlah kuadrat total),

sedangkan MSW (mean square error) atau biasa disebut JKG (jumlah kuadrat

galat). N melambangkan total sampel (data) secara keseluruhan. merupakan

besarnya sampel pada kelompok k. Anova pada satuan simbolnya dapat dilihat

dalam tabel berikut.

Tabel 2.2 Rumus-Rumus Anova 1 Arah

Sumber

Keragaman

Jumlah

Kuadrat

Derajat

Bebas

Kuadrat

TengahF hitung

Nilai tengah

kolomJKK k – 1 s1

2 =

Galat

(Error)JKG k (n-1) s1

2 =

Total JKT nk – 1

(Sumber :Walpole,1995)

Dimana:

JKG = JKT – JKK

2.4.2 Klasifikasi Satu Arah

Page 19: BAB II stat 2

II-26

Kalsifikasi satu arah mempunyai k populasi. Masing–masing populasi

yang berukuran n. Menyatakan k populasi itu bebas dan menyebar normal dengan

nilai tengah.

,

seekurang – kurangnya dua nilai tengah tidak sama.

Menurut Subiyakto,1994 setiap pengamatan dapat dituliskan dalam bentuk rumus,

yaitu.

Hal ini simpangan pengamatan dari nilai tengah populasi dalam bentuk

lain didapat persamaan dengan mensubstitusikan sedangkan nilai

tengahnya adalah.

Hipotesis nol berarti bahwa semua nilai tengah populasi itu sama lawan

alternatifnya bahwa sekurang–kurangnya dua nilai tengah tidak sama juga dapat

dinyatakan oleh hipotesis berikut, yaitu.

Didasarkan pada perbandingan dua nilai dugaan yang bebas bagi ragam populasi

. Nilai dugaan itu dapat diperoleh dengan cara meguraikan keragaman total

menjadi dua komponen. Menurut Walpole,1995 ragam semua pengamatan bila

semua pengamatan itu tidak dikelompokan maka diberikan rumus.

Page 20: BAB II stat 2

II-26

Penjumlahan ganda itu berarti bahwa harus menjumlahkan semua

kemungkinan suku, dan ini akan diperoleh dengan mengambil i dari 1 sampai k

untuk setiap nilai j dari 1 sampai n. Menurut Walpole,1995 pembilang itu, yang

disebut jumlah kuadrat total, mengukur keragaman total. Total ini dapat diuraikan

melalui identitas, yaitu.

Identitas Jumah–Kuadrat klasifikasi satu–arah:

Akan lebih memudahkan bagi uraian selanjutnya bila suku–suku jumlah kuadrat

itu diberi notasi berikut.

JKT = = jumlah kuadrat total

JKK = = jumlah kuadrat untuk nilai tengah kolom

JKG = = jumlah kuadrat galat

Dengan ini, identitas jumlah kuadrat itu dapat dilambangkan melalui persamaan

JKT = JKK + JKG

Salah satu nilai dugaan bagi yang didasarkan pada ke-1 derajat bebas, adalah.

Page 21: BAB II stat 2

II-26

Bila merupakan pendugaan tak bias bagi . Akan tetapi,

bila benar, JKK cendrung menghasilkan nilai besar, artinya menduga lebih

(overestimate) Nilai dugaan bagi yang lain, didasarkan pada k (n - 1)

derajat bebas adalah berikut ini.

Nilai dugaan ini bersifat tak bias, baik hipotesis nol benar atau salah.

Ragam seluruh data tanpa memperhatikan pengelompokkannya yang mempunyai

(nk–1) derajat bebas adalah sebagai berikut..

Nilai dugaan tak bias bagi bila benar. Identitas jumah kuadrat tersebut

tidak hanya mengurangkan jumlah kuadrat total, tetapi juga jumlah total derajat

bebasnya adalah.

nk – 1 = k – 1 + k (n – 1)

maka bila benar rasionya adalah sebagai berikut.

2.5. Anova Dua Arah

One way anova dapat diperluas menjadi analisis dua arah atau (two way

anova). Perlakuan dalam two way anova sebanyak dua macam. Hipotesis yang

akan diuji adalah klasifikasi dua arah tanpa interaksi dan pengujian klasifikasi dua

arah dengan interaksi, menyatakan bahwa tidak ada perbedaan k mean (k>2) pada

perlakuan pertama, tidak ada perbedaan k mean (k>2) pada perlakuan kedua, dan

tidak ada efek interaksi antara perlakuan pertama dan kedua.

Page 22: BAB II stat 2

II-26

Menurut H, Umar (1999) mekanisme perhitungan dilakukan dijelaskan

dengan berdasarkan data di bawah ini.

Tabel 2.3 Mekanisme Perhitungan

Perlakuan 2 Perlakuan 1

P1 P2 ..... PK Jumlah

Q1 a111 a121 a1K1

a11n a12n a1Kn

T1.

Q2 a211 a221 a2K1

a21n a22n a2Kn

T2.

QJ aJ11 aJ21 aJK1

aJ1n aJ2n aJKn

TJ.

Jumlah T.1 T.2 T.K T..

(Sumber: H, Umar, 1999)

2.5.1 Uji Hipotesis Dua Varians

Mengetahui apakah variansi dua populasi sama atau tidak sama diperlukan

pengujian dengan melibatkan sampel dari keduanya. Pengujian didasarkan pada

pemikiran bentuk distribusi sampling dari perbandingan antara yang

merupakan variansi sampel dari populasi pertama dengan n1 titik sampel serta

yang merupakan variansi sampel dari populasi kedua dengan n2 titik sampel.

Menurut Djarwanto dan Subagyo (2000) perbandingan ini berdistribusi F atau

berdistribusi F. Sehingga dapat disusun langkah-langkah pengujian sebagai

berikut .

1. Menentukan Hipotesis dan alternatifnya.

a).

b).

c).

Page 23: BAB II stat 2

II-26

2. Dipilih level of significance

3. Dibuat kriteria pengujian dengan dasar level of significance yang sudah

ditentukan.

a. Untuk hipotesis yang pertama

Jika

H0 diterima jika

H0 ditolak jika

Jika

H0 diterima jika

H0 ditolak jika

b. Untuk hipotesis yang kedua

H0 diterima jika

H0 ditolak jika

c. Untuk hipotesis yang ketiga

H0 diterima jika

H0 ditolak jika

4. Perhitungan nilai F:

a. Untuk hipotesis yang pertama

F = Varian yang besar Varian yang kecil

b. Untuk hipotesis kedua

c. Untuk hipotesis ketiga

Page 24: BAB II stat 2

II-26

5. Kesimpulan diambil dengan membandingkan langkah 3 dan 4.

2.5.2 Anova Dua Arah Tanpa Interaksi

Menurut Walpole,1995 rancangan percobaan dengan anova jenis ini,

setiap kategori mempunyai banyak blok yang sama, sehingga jika, banyak kolom

= k dan banyak baris atau blok = r, maka banyak data N= r x c.

Tabel 2.4 Anova 2 Arah Tanpa Interaksi

SumberKeragaman(SK)

JumlahKuadrat(JK)

Derajat bebas(db)

KuadratTengah(KT)

fhitung ftabel

Rata-rataBaris

JKB dbnumerator1 =r-1

fhitung

=

=db numer1=db denum=f tabel =

Rata –rata Kolom

JKK Dbdenumerator2= k-1

Fhitung

=

=db numer2=db denum=f tabel =

Galat JKG Dbdenum=(r-1)(k-1)

Total JKT r.k-1

(Sumber :Walpole,1995)

JKT =

JKB =

JKK =

Page 25: BAB II stat 2

II-26

JKG = JKT –JKB-JK

Dimana:

k : banyaknya kolom

r : banyaknya baris/blok

Xij: data pada baris ke-I, kolom ke-j

: total (jumlah) baris ke-i

: total (jumlah) kolom ke-j

: total (jumlah) seluruh pengamatan

2.5.3 Anova Dua Arah dengan Interaksi

Menurut Walpole,1995 efek interaksi diperoleh setelah setiap kolom

[perlakuan] dan blok [baris] diulang. Interaksi dinyatakan sebagai perkalian Baris

x Kolom [BK].

Tabel 2.5 Anova 2 Arah dengan Interaksi

SumberKeragaman(SK)

JumlahKuadrat(JK)

Derajat bebas(db)

KuadratTengah(KT)

fhitung ftabel

Nilai tengahBaris

JKB dbnumer1 =r-1

F hitung

=

=db numer1=db denum=f tabel =

Nilai tengahKolom

JKK dbnumer2= k-1

F hitung

=

=db numer2=db denum=f tabel

Interaksi [BK]

JK[BK] db numer3=[r-1][k-1]

F hitung =

=db numer3=db denum=f tabel=

Galat JKG dbdenumer=

Page 26: BAB II stat 2

II-26

r.k.[n-1]Total JKT [r.k.n]-1

(Sumber :Walpole,1995)

JKT =

JKB =

JKK =

JK[BK] =

JKG = JKT – JKB – JKK- JK[BK]

Dimana:

r : banyak baris i = 1,2,3,…r

k: banyak kolom j = 1,2,3,…k

n: banyak ulangan m = 1,2,3,…n

: data pada baris ke-I, kolom ke-j dan ulangan ke-m

: Total baris ke-i

: Total kolom ke-j

: Total Sel di baris ke-I dan kolom ke-j

: Total keseluruhan pengamatan