BAB III METODOLOGI PENELITIAN 3.1 Objek dan Subjek...

16
45 BAB III METODOLOGI PENELITIAN 3.1 Objek dan Subjek Penelitian Objek penelitian ini terdiri dari variabel bebas (independen) dan variabel terikat (dependen). Variabel independen terdiri dari pendapatan perkapita, populasi, nilai sektor industri, luas lahan perkebunan, dan investasi. Sedangkan variabel dependen yaitu rasio pajak pusat. Subjek penelitian ini yaitu 32 Provinsi di Indonesia dari tahun 2012 2016. 3.2 Metode Pengumpulan Data Data yang digunakan untuk penelitian ini sepenuhnya diperoleh melalui studi pustaka (library research) sebagai pengumpulan datanya. Studi pustaka merupakan teknik analisa untuk mendapatkan informasi melalui catatan, literatur, dokumentasi dan lain-lain yang masih relevan dengan penelitian (Nazir, 2003). 3.3 Metode Penelitian 3.3.1 Jenis Penelitian Jenis penelitian yang digunakan yaitu eksplanasi ( explanatory research). Dimana penelitian ini berusaha menjelaskan hubungan satu variabel dengan variabel yang lain yang digambarkan antara variable dependen dan variable independen, dengan menyoroti hubungan yang telah dirumuskan sebelumnya (Nazir, 2003).

Transcript of BAB III METODOLOGI PENELITIAN 3.1 Objek dan Subjek...

45

BAB III

METODOLOGI PENELITIAN

3.1 Objek dan Subjek Penelitian

Objek penelitian ini terdiri dari variabel bebas (independen) dan variabel

terikat (dependen). Variabel independen terdiri dari pendapatan perkapita,

populasi, nilai sektor industri, luas lahan perkebunan, dan investasi. Sedangkan

variabel dependen yaitu rasio pajak pusat. Subjek penelitian ini yaitu 32

Provinsi di Indonesia dari tahun 2012 – 2016.

3.2 Metode Pengumpulan Data

Data yang digunakan untuk penelitian ini sepenuhnya diperoleh melalui

studi pustaka (library research) sebagai pengumpulan datanya. Studi pustaka

merupakan teknik analisa untuk mendapatkan informasi melalui catatan,

literatur, dokumentasi dan lain-lain yang masih relevan dengan penelitian

(Nazir, 2003).

3.3 Metode Penelitian

3.3.1 Jenis Penelitian

Jenis penelitian yang digunakan yaitu eksplanasi (explanatory

research). Dimana penelitian ini berusaha menjelaskan hubungan satu

variabel dengan variabel yang lain yang digambarkan antara variable

dependen dan variable independen, dengan menyoroti hubungan yang

telah dirumuskan sebelumnya (Nazir, 2003).

46

TE = T

T/Y …………………………………….…………. (3.2)

Dimana :

TE = Upaya Perpajakan (Tax Effort)

T/Y = Pajak Hasil Estimasi (Taxable Capacity)

T = Pajak Aktual (Realisasi Penerimaan Pajak Daerah)

3.3.2 Model Penelitian

Model dalam penelitian ini merupakan pengembangan dari model

Richard M. Bird (2008) dan Tuan Minh Le (2012), modelnya dapat

dituliskan sebagai berikut:

T/Yit = α0 + α1LnYCAPit + α2LnPOPit + α3LnAREAit + α4LnINDUSTit

+ α5LnINVESit + ɛit

Keterangan:

T/Yit = Rasio Pajak (Tax Ratio) (TAX/GDPit)

YCAPit = Pendapatan per Kapita daerah ke-i tahun ke-t

POPit = Kepadatan Penduduk (population density)

AREAit = Luas Lahan Perkebunan (Land Area)

INDUSTit = Nilai Sektor Industri

INVESit = Penanaman Modal Total Bruto (Investation)

i = Provinsi

t = Tahun

𝛼0 , β0 = Intercept

𝛼1, 𝛼2, 𝛼3, 𝛼4, 𝛼5, 𝛼6, β1, β2, β3, β4, β5 = Koefisisen Regresi

Setelah menghitung kapasitas pajak dari hasil estimasi regersi masing-

masing Provinsi maka langkah selanjutnya adalah menhitung berapa

besar upaya pajak dari masing-masing Provinsi, dengan menggunakan

rumus sebagai berikut:

47

3.3.3 Operasional Variabel Penelitian

Definisi operasional adalah definisi yang didasarkan atas sifat-

sifat hal yang didefinsikan yang dapat diamati (diobservasi). Masri

Singarimbun dan Sofian Efendi (1989) memberi batasan tentang definisi

operasional adalah: “merupakan unsur penelitian yang memberitahukan

bagaimana caranya mengukur suatu variable atau dengan kata lain

semacam petunjuk pelaksanaan bagaimana caranya mengukur suatu

variabel.” Dalam penelitian ini definisi operasional dari masing-masing

variable adalah sebagai berikut:

Table 3.1

Definisi Operasional Variabel Penelitian

No Variabel Konsep

Variabel Satuan Simbol Sumber

1. Rasio Pajak

Penerimaan

pajak pusat

terhadap PDB

Persen T/Yit APBN

2. Pendapatan

per kapita

Pendapatan per

kapita daerah

per jumlah

penduduk ke-i

tahun ke-t

Nominal LnYCAPit BPS (Badan

Pusat

Stastistik)

4. Populasi Kepadatan

penduduk Nominal LnPOPit

BPS (Badan

Pusat

Stastistik)

5. Luas Lahan Luas lahan

perkebunan Nominal LnAREAit

BPS (Badan

Pusat

Stastistik)

6. Sektor

Industri

Nilai sektor

industri dalam

PDRB

Nominal LnINDUSTit BPS (Badan

Pusat

Stastistik)

7. Investasi

Penanaman

modal total

bruto dalam PDRB

Nominal LnINVESit BPS (Badan

Pusat

Stastistik)

48

3.3.4 Jenis dan Sumber Data

Jenis data yang digunakan dalam penelitian ini adalah data

sekunder. Data sekunder merupakan data yang sudah tersedia di

berbagai lembaga atau instansi terkait. Sumber datanya berasal dari

APBN (Anggaran Pendapatan Belanja Negara), BPS (Badan Pusat

Statistik), dan DJPK (Direktorat Jenderal Perimbangan Keuangan). Data

yang akan dipergunakan adalah data panel (panel/pooled data) yang

terdiri dari 2provinsi di Indonesia dari tahun 2012-2016. Sebagai

pendukung dalam penelitian ini digunakan pula berbagai sumber lain

seperti jurnal, buku, publikasi laporan per daerah yang terkait dengan

penelitian ini.

3.3.5 Teknik Analisis

Untuk menganalisis data yang telah dikumpulkan akan digunakan

model ekonometrika. Metode analisis yang digunakan adalah analisis

regresi berganda (multiple regression analysis) yang digunakan untuk

menganalisis pengaruh variabel independen terhadap variabel

dependen. Alat yang digunakan untuk mengolah datanya yaitu Eviews.

Menurut (Gujarati, 2009) dalam melakukan regresi dengan data

panel maka ada tiga metode analisis yang dapat digunakan yaitu:

1. Metode OLS atau dikenal juga sebagai metode common effect atau

koefisien tetap antar waktu dan individu. Dalam pendekatan ini

tidak memperlihatkan dimensi individu maupun waktu.

Diasumsikan bahwa perilaku data sama dalam berbagai kurun

49

waktu. Ini adalah teknik paling sederhana untuk mengestimasi

data panel.

2. Metode fixed effect atau slope konstan tetapi intersept berbeda

antara individu, menempatkan bahwa eit merupakan kelompok

spesifik atau berbeda dalam constant term pada model regresi.

Bentuk model tersebut biasanya disebut model Least Square

Dummy Variable (LSDV). Berbeda dengan OLS yang

mengasumsikan bahwa tidak adanya dimensi individu maupun

waktu, pengertian fixed effect ini diasarkan adanya perbedaan

intersept antara daerah namun intersepnya sama antar waktu (time

inavariant).

3. Metode random effect merupakan eit sebagai gangguan spesifik

kelompok identik dengan eit, kecuali terhadap masing-masing

kelompok. Namun, gambaran tunggal yang memasukan regresi

identik untuk setiap periode. Model ini lebih dikenal sebagai

model Generalized Least Squares (GLS).

Untuk dapat menentukan metode terbaik yang dapat digunakan

untuk mengestimasi model regresi dengan jenis data yaitu data panel,

maka yang harus dilakukan adalah membandingkan hasil regresi ketiga

metode tersebut melalui beberapa tahapn berikut, yaitu:

Pertama, uji yang harus dilakukan adalah Uji Chow. UJi Chow ini

bertujuan untuk membandingkan antara model fixed effect dan model

common effect yang baik untuk digunakan. Hipotesis dalam uji Chow

ini adalah sebagai berikut:

50

H0 = Metode Common Effect

Ha = Metode Fixed Effect

Hipotesis diatas dasar penggunaan nya yaitu dengan

membandingkan perhitungan antara Fstatistik dan Ftabel. Adapun uji Fstatistik

nya adalah sebagai berikut:

𝐹 =

(𝑅𝑆𝑆1 − 𝑅𝑆𝑆2)𝑚

𝑅𝑆𝑆2𝑛 − 𝑘

Keterangan:

RSS1= Residual Sum of Square Teknik tanpa variabel dummy

RSS2= Residual Sum of Square dengan variabel dummy

m = Jumlah resriksi di dalam model tanpa variabel dummy

Hasilnya apabila Fhitung > Ftabel maka hipotesis H0 ditolak, maka

estimasi yang tepat digunkan untuk model regresi data panel adalah

metode Fixed effect dan sebaliknya, jika Ftabel > Fhitung maka Ha ditolak,

artinya estimasi yang tepat digunakan untuk model regresi data panel

adalah Common effect.

Kedua, yaitu melakukan uji Hausman. Uji Hausman bertujuan

untuk melihat diantara model Fixed effect dan model Random effect

yang terbaik untuk digunakan. Hipotesis dari uji Hausman adalah

sebagai berikut:

H0 = Metode Random Effect

Ha = Metode Fixed Effect

Statistik uji Hausman ini mengikuti distribusi statistik Chi Squares

dengan degree of freedom sebanyak k dimana k adalah jumlah variabel

independen. Adapun ketentuan dari uji Hausman adalah jika nilai

51

statistik Hausman lebih besar dari nilai kritisnya maka model yang tepat

adalah model fixed effect, sedangkan jika nilai statistik Hausman lebih

kecil dari nilai kritisnya, maka model yang tepat adalah model Random

effect. (Rohmana, 2013)

Ketiga, yaitu melakukan uji Lagrange Multiplier (LM). Uji

Lagrange Multiplier bertujuan untuk melihat model mana yang cocok

antara random effect dan OLS yang baik untuk digunakan. Hipotesis

dalam uji Lagrange Multiplier adalah sebagai berikut:

H0 = Metode Common Effect

Ha = Metode Randoms Effect

Nilai statistik Lagrage Multiplier dapat dihitung sebagai berikut:

𝐿𝑀 =𝑛𝑇

2(𝑇−)|∑ |∑ �̂�𝑖𝑡𝑇

𝑡=1 |2𝑛𝑖=1

∑ ∑ �̂�2𝑖𝑡𝑇𝑡=1

𝑛𝑖=1

− 1|

2

=𝑛𝑇

2(𝑇−)|

∑ (𝑇 �̂�𝑖)2𝑛𝑖=1

∑ ∑ �̂�2𝑖𝑡𝑇𝑡=1

𝑛𝑖=1

− 1|

2

Keterangan:

n = Jumlah individu

T = Jumlah periode waktu

e = Residual Metode OLS

Kriteria dari LM test ini yaitu jika nilai LM statistik > daripada

nilai kritis statistik chi-squares maka H0 ditolak itu berarti estimasi yang

tepat untuk model regresi data panel adalah metode random effect dan

sebaliknya jika LM statstik < daripada nilai kritis statistik chi-squares

maka Ha ditolak itu berarti metode OLS yang tepat digunakan adalah

common effect.

52

3.3.6 Uji Asumsi Klasik

Metode Ordinary Least Squares (OLS) merupakan model yang

berusaha untuk meminimalkan penyimpangan hasil perhitungan

(regresi) terhadap kondisi aktual. Dibandingkan dengan metode lain,

Ordinary Least Squares merupakan metode sederhana yang dapat

digunakan untuk melakukan regresi linear terhadap sebuah model.

Sebagai estimator, Ordinary Least Squares merupakan metode regresi

dengan keunggulan sebagai estimator linear terbaik yang tidak bias.

BLUE (Best Linear Unbiased Estimator), sehingga hasil perhitungan

Ordinary Least Squares dapat dijadikan sebagai dasar pengambilan

kebijakan. Namun untuk menjadi sebuah estimator yang baik dan tidak

bias, terdapat beberapa uji asumsi klasik yang harus dipenuhi.

Perhitungan data dengan menggunakan program Microsoft Excell

dan pengolahan data dalam penelitian ini menggunakan program

Eviews. Gujarati (1993) menyebutkan bahwa kesepuluh asumsi yang

harus dipenuhi. Pertama, model persamaan berupa linear. Kedua, nilai

variable independen tetap meskipun dalam pengambilan sampel yang

berulang. Ketiga nilai rata-rata penyimpangan sama dengan nol.

Keempat, homocedasticity. Kelima tidak ada autokorelasi antara

variabel. Keenam, nilai covariance sama dengan nol. Ketujuh, jumlah

observasi harus lebih besar daripada jumlah parameter yang diestimasi.

Kedelapan, nilai variabel independen yang bervariasi. Kesembilan,

model regresi harus memiliki bentuk yang jelas. Kespuluh adalah tidak

adanya multicolinearity antar variabel independen. Terpenuhinya

53

kesepuluh asumsi di atas menjadikan hasil regresi memiliki derajat

kepercayaan yang tinggi.

3.3.6.1 Multikolinearitas

Istilah multikolinearitas pada mulanya berarti adanya hubungan

linear yang“sempurna”, atau pasti, diantara beberapa atau semua

variabel yang menjelaskan dari model regresi (Gujarati, 2012).

Multikolinearitas itu merupakan kondisi adanya hubungan linear antar

variabel independen.. Multikolinearitas dapat disebabkan oleh beberapa

hal diantaranya (Ariefianto M. D., 2012) yaitu pertama, tergantung dari

cara pengambilan data atau kecilnya ukuran sampel; Kedua, pembatas

pada model atau populasi yang disampel; Ketiga, spesifikasi model dari

penelitian tersebut; Keempat, model yang overdetermined artinya jika

model dimaksud memiliki lebih banyak variabel dibandingkan jumlah

sampelnya yang biasanya terjadi pada penelitian medis dan yang

terakhir; kelima, yaitu common trend terutama jika menggunakan data

time series, banyak variabel seperti GDP, konsumsi agregat, PMA dan

sebagainya bergerak searah berdasarkan waktu.

Ada beberapa cara untuk mendeteksi multikolinearitas

(Rohmana, 2013) yaitu:

a. Nilai R2 tinggi tetapi hanya sedikit variabel independen yang

signifikan. Apabila nilai R2 tinggi, ini berarti bahwa uji F melalui

analisis varian, pada umumnya akan menolak hipotesis nol yang

mengatakan bahwa secara simultan, bersama-sama, seluruh

koefisien regresi parsial nilainya nol.

54

b. Korelasi parsial antar variabel independen. Dengan menghitung

koefisien korelasi antar variabel independen. Apabila koefisiennya

rendah, maka tidak terdapat multikolinearitas, sebaliknya jika

koefisien antarvariabel independen (X) itu koefisiennya tinggi (0,8

– 1,0) maka diduga terdapat multikolinearitas.

c. Regresi Auxiliary. Regresi jenis ini dapat digunakan untuk

mengetahui hubungan antara dua atau lebih variabel independen

yang secara bersama-sama (misalnya X2 dan X3). Kita harus

menjalankan beberapa regresi, masing-masing dengan

memberlakukan satu variabel independen (misalkan X1) sebagai

variabel dependen dan variabel independen lainnya tetap

diperlakukan sebagai variabel independen.

Setelah kita mengetahui adanya multikolinearitas maka ada

beberapa tindakan perbaikan apabila terjadi multikolinearitas. Tindakan

perbaikan yang harus dilakukan ketika terjadi multikolinearitas dalam

(Gujarati, 2012) yaitu:

a. Informasi Apriori

Informasi apriori ini dapat didapatkan baik dari teori ekonomi atau

dari penelitian empiris sebelumnya, dimana masalah kolinearitas

ternyata kurang serius.

b. Menghubungkan data cross-sectional dan data time-series. Suatu

varians yang tidak ada hubungannya atau disebut juga informasi

apriori merupakan gabungan dari cross sectional dan time series

yang dikenal dengan penggabungan data (pooling the data).

55

Meskipun begitu, menghimpun data cross section dan time series

dengan cara yang disarankan dapat menciptakan masalah

interpretasi, karena secara implisit kita mengasumsikan bahwa

elastisitas pendapatan yang ditaksir dengan cara cross sectional

adalah elastisitas yang sama yang akan diperoleh dari time series

yang murni.

c. Mengeluarkan suatu variabel atau variabel-variabel dan bias

spesifikasi. Ketika dihadapkan dengan multikolinearitas yang

parah, satu cara yang paling sederhana untuk dilakukan adalah

mengeluaran satu dari variabel yang berkolinear. Tetapi, dalm

mengeluarkan suatu variabel dari model, kita mungkin melakukan

bias spesifikasi atau kesalahan spesifikasi. Bias spesifikasi timbul

dari spesifikasi yang tidak benar dari model yang digunakan dalam

analisis. Jadi, jika dalam teori ekonomi bahwa X1 dan X2 kedua-

duanya seharusnya dimasukan dalam model yang menjelaskan

variabel Y, maka dengan mengeluarkan variabel kekayaan akan

menimbulkan bias spesifikasi. Jadi, dari pembahasan diatas dapat

diketahui jika obatnya mungkin lebih buruk dari penyakitnya dalam

beberapa situasi, karena jika multikolinearitas mencegah

penaksiran yang efektif mengenai parameter model, mengabaikan

suatu variabel mungkin secara serius akan menyesatkan kita dari

parameter sebenarnya.

d. Transformasi Variabel. Misalkan kita mempunyai data time series

mengenai belanja konsumsi, pendapatan, dan kekayaan. Satu

56

alasan untuk multikolineartas yang tinggi antara pendapatan dan

kekayaan dalam data seperti itu adalah bahwa dengan berjalannya

waktu, kedua variabel cenderung untuk bergerak dalam arah yang

sama. Maka dari sini kita akan mengenal bentuk perbedaan utama

(first difference). Model regresi perbedaan utama ini sering

mengurangi kepelikan multikolinearitas meskipun tingkat X2 dan

X3 mungkin sangat berkorelasi, tidak ada alasan secara apriori

untuk percaya bahwa perbedaan juga sangat berkorelasi.

3.3.6.2 Heteroskedstisitas

Heteroskedastisitas terjadi ketika asumsi variasi faktor

gangguan yang seharusnya bersifat konstan tapi tidak terpenuhi. Jika itu

terjadi, maka penaksir OLS adalah unbiased. Jika unbiased maka varian

dari koefisien OLS akan salah dan penaksir OLS tidak efisien (Gujarati,

2012). Jadi, kesimpulannya dengan adanya heteroskedastisitas maka

estimator OLS tidak menghasilkan estimator yang Best Linear Unbiased

Estimator (BLUE) hanya mungkin baru sampai Linear Unbiased

Estimator (LUE) (Rohmana, 2013).

Ada beberapa metode yang digunakan untuk mendeteksi

heteroskedastisitas, yaitu metode informal (grafik), metode Park,

metode Glejser, metode korelasi Spearman, metode Goldfeld-Quandt

dan metode Breusch-Pagan-Godfrey. Sedangkan, untuk

penyembuhannya dapat dilakukan dengan metode WLS (Weighted

Least Square), metode White dan metode transformasi. Metode WLS

digunakan ketika varian dan residual diketahui sedangkan jika varian

57

tidak diketahui maka dapat menggunakan metode White atau metode

transformasi.

3.3.6.3 Autokolerasi

Autokorelasi dapat didefinisikan sebagai korelasi antara

anggota serangkaian observasi yang diurutkan menurut waktu (seperti

dalam data deretan waktu) atau ruang (seperti dalam data cross section).

Dalam konteks regresi, model regresi linear klasik mengasumsikan

bahwa autokorelasi seperti itu tidak terdapat dalam disturbansi atau

gangguan ui (Gujarati, 2012).

Akibat jika data yang kita analisis terkena autokorelasi yaitu

estimator metode kuadrat terkecil masih linear, masih tidak bias dan

tidak mempunyai varian yang minimum (no longer best) juga

menyebabkan estimator tidak BLUE. Cara mendeteksi autokorelasi

yaitu dengan uji Durbin Watson dan Breusch-Godfrey. Dalam uji

Durbin Watson (D-W test) autokorelasi dapat berbentuk autokorelasi

positif dan autokorelasi negatif. Hipotesisnya adalah :

H0 : tidak ada autokorelasi (r = 0)

H1 : ada autokorelasi (r ≠ 0)

58

Tabel 3.2

Pengambilan Keputusan Ada Tidaknya Autokorelasi

Cara mendeteksi autokorelasi yaitu dengan uji Durbin Watson

dan Breusch-Godfrey. Adapun pengujian menggunakan Durbin Watson

sebagai berikut:

Gambar 3.1

Stastik Durbin-Watson

3.3.7 Uji Signifikansi Koefisien

3.3.7.1 Uji t

Uji t dilakukan dengan tujuan untuk mengetahui masing-masing

pengaruh dari variabel indepeden terhadap variabel dependen

dan menjawab serta membuktikan hipotesis yang dibangun.

Menghitung nilai t statistik (t hitung) dan mencari nilai-nilai t

Hipotesis nol Keputusan Jika

Tidak ada autokorelasi

positif

Tolak 0 < d < dl

Tidak ada autokorelasi

positif

No decision dl ≤ d ≤ du

Tidak ada autokorelasi

negatif

Tolak 4-dl < d < 4

Tidak ada autokorelasi

negatif

No decision 4-du ≤ d ≤ 4-dl

Tidak ada autokorelasi

positif maupun negatif

Tidak ditolak du < d < 4-du

59

kritis dari tabel distribusi t pada α dan degree of freedom

tertentu.. Adapun nilai t hitung dapat dicari dengan formula

sebagai berikut:

𝑡ℎ𝑖𝑡𝑢𝑛𝑔 = 𝛽

𝑖− 𝛽

𝑖∗

𝑆𝐸(𝛽𝑖)

Keterangan:

ßi = Parameter yang diestimasi

ßi* = nilai hipotesis dari (H0: ßi*= 0)

Kriteria uji t adalah sebagai berikut:

1. Jika thitung > ttabel maka Ho ditolak dan Ha diterima,

artinya variabel bebas X berpengaruh signifikan terhadap

variabel bebas Y.

2. Jika thitung < ttabel maka Ho diterima dan Ha ditolak,

artinya variabel bebas X tidak berpengaruh signifikan

terhadap variabel terikat Y.

3.3.7.2 Uji F

Uji F digunakan untuk melihat pengaruh semua variabel

independen terhadap variabel dependen. Pengujian dilakukan

dengan membandingkan antara nilai Ftabel dengan Fhitung.. Rumus

Fhitung adalah sebagai berikut:

𝐹 =

𝑅2

(𝑘 − 1)

1 − 𝑅2

(𝑁 − 𝑘)

Keterangan:

k= Jumlah parameter yang diestimasi termasuk konstanta

N= Jumlah observasi

Kriteria uji F adalah sebagai berikut:

60

1. Jika Fhitung < Ftabel Ho diterima dan Ha ditolak

(keseluruhan variabel bebas X tidak berpengaruh pada

variabel terikat Y).

2. Jika Fhitung > Ftabel maka Ho ditolak dan Ha diterima

(keseluruhan variabel bebas X berpengaruh terhadap

variabel terikat Y).

3.3.7.3 Koefisien Determinasi

Koefisien determinasi (R2) merupakan ukuran yang

menunjukan seberapa besar proporsi variasi variabel independen

dalam menjelaskan semua variabel dependen yang terdapat di

dalam model. Dalam koefisien determinasi juga akan digunakan

koefisien determinasi untuk mengukur seberapa baik garis

regresi yang kita punya. Maka, untuk menghitung koefisien

determinasi (R2) formula yang digunakan adalah sebagai

berikut:

Adapun kriteria nya sebagai berikut:

1. Jika R2 semakin mendekati 1, maka hubungan antara

variabel bebas dengan variabel terikat semakin

erat/dekat, atau dengan kata lain model tersebut

dinilai baik.

2. Jika R2 semakin menjauhi angka 1, maka hubungan

antara variabel bebas dengan variabel terikat jauh

atau tidak erat, dengan kata lain model tersebut dapat

dinilai kurang baik.