BAB V
1.
Rangkuman
BAB V
Baik dalam
regresi linier sederhana ataupun regresi linier berganda bahwa dalam kedua
regresi tersebut perlu memnuhi asumsi-asumsi seperti yang telah diuraikan dalam
kedua bahasan tersebut. Jika data regresi tidak memnuhi asumsi-asumsi yang
telah disebutkan maka akan menghasilkan regresi bias. Tetapi apabila regresi
memenuhi asumsi-asumsi regresi maka nilai estimasi diperoleh bersifat BLUE
(Best, Liniear, Unbiased, Estimator) yang merupakan uji asumsi OLS yang
dikemukakan oleh Gauss dan Markovv. Secara teritis model OLS akan menghasilkan
estimasi nilai parameter model penduga sahih apabila dipenuhi asumsi tidak ada
autokorlasi, tidak ada multikoliniearitas, tidak ada heteroskedastisitas.
a.
Uji
Autokolerasi
Autokorelasi
adalah keadaan dimana variable gangguan pada periode tertentu berkolerasi
dengan variable gangguan pada periode lain. Autokolerasi akan muncul apabila
ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi
data berikutnya, secara matematis dituliskan :
E(ui,uj)≠ 0; i≠ j
Sebaliknya apabila tidak
terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara
otomatis mempengaruhi data berikutnya maka autokolerasi tidak akan muncul,
secara matematis dituliskan :
E(ui,uj)= 0; i≠ j
Sebab-sebab Autokolerasi :
1.
Kesalahan
dalam pembentukan model
2.
Tidak
memasukan variable yang penting
3.
Manipulasi
Data
4.
Menggunakan
Data Yang Tidak Empiris
Akibat Autokolerasi :
Meskipun
ada autokolerasi, nilai parameter estimator (b1,b2.....bn) model regresi tetap
linier dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan
tetapi nilai variance tidak minimum
dan standard error (Sb1,Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula,karena
nilai t diperoleh dari hasil bagi Sb terhadap b (t=b/sb). Berhubung
nilai Sb bias maka nilai t juga akan
bias atau bersifat tidak pasti (misleading).
Pengujian Autokolerasi
1.
Uji
Durbin-Watson (DW Test)
Uji DW yang secara popular
digunakan untuk mendeteksi adanya serial kolerasi dikembangkan oleh ahli
statistic Durbin dan Watson dengan formula sebagai berikut :

Asumsi yang
harus diketahui pada DW test ini adalah :
a.
Terdapat
intercept dalam model regresi
b.
Variabel
penjelasnya tidak random (nonstochastics)
c.
Tidak
ada unsure lag dari variable dependen di dalam model
d.
Tidak
ada data yang hilang
e.
Υt =ρυt−1 +εt
Standar
Keputusan DW Test :
o DW<
dL = terdapat atokorelasi positif
o dL<DW<dU = tidak dapat disimpulkan (inconclusive)
o dU> DW>4-dU =
tidak terdapat autokorelasi
o 4-dU< DW<4-dL = tidak dapat disimpulkan (inconclusive)
o DW>
4-dL = terdapat
autokorelasi negative
Dimana
o DW = Nilai Durbin-Watson
d statistik
o dU = Nilai
batas atas (di dapat dari tabel)
o dL = Nilai batas bawah (didapat dari tabel)
2.
Menggunakan
Metode LaGrande Multipler (LM)
LM sendiri merupakan
teknik regresi yang memasukkan variabel
lag. Sehingga terdapat variabel tambahan
yang dimasukkan dalam model. Variabel
tambahan tersebut adalah data Lag dari
variabel dependen. Dengan demikian model
dalam LM menjadi sebagai berikut:
Y = β0+ β1X1+β2X2+ β3Yt-1+β4Yt-2 + ε
Variabel Yt-1 merupakan
variabel lag 1 dari Y.
Variabel Yt-2 merupakan
variabel lag 2 dari Y.
Sebagai
kunci untuk mengetahui pada
lag berapa autokorelasi muncul, dapat dilihat dari signifikan
tidaknya variabel lag tersebut. Ukuran yang digunakan
adalah nilai t
masing-masing variabel lag
yang dibandingkan dengan t tabel, seperti yang telah dibahaspada uji t sebelumnya.
b.
Uji Normalitas
Pengujian normalitas
dilakukan sebelum atau setelah tahapan analisis regresi. Sangat beralasan
kiranya, karena jika asumsi
normalitas data telah dipenuhi terlebih dulu,maka dampak yang mungkin
akan ditimbulkan dari adanya ketidaknormalan
data seperti bias pada nilai t hitung dan nilai
F hitung
dapat dihindari. Sebaliknya, bila dilakukan
analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui,
yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus
diulang lagi.
Beberapa
cara untuk melakukan uji normalitas antara lain:
·
Menggunakan metode numerik yang membandingkan
nilai statistic
·
Menggunakan formula Jarque Bera (JB test)

Dimana :
S= Skewness (kemencengan)
distribusi data
K=Kurtosis (keruncingan)
·
Mengamati sebaran data, dengan melakukan
hitungan-hitungan berapa presentase data observasi dan berada di area mana.
Denag langkah awal menghitung standar deviasi dengan rumus berikut.

·
n
Dalam pengujian normalitas ada dua
kemungkinan, yaitu data berdistribusi normal atau tidak normal. Data
berdistribusi normal tidak ada masalah, apabila data berdistribusi tidak normal
maka diperlukan upaya untuk mengatasi seperti memotong data outliners,
memperbesar sampel, taau melakukan transformasi data. Hingga membentuk diagram
seperti berikut

c.
Uji
Heteroskedastisitas
Masalah
heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak
dapat ditentukan. Karena nilai t dihasilkan
dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka
nilai t cenderung membesar. Hal ini akan
berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan.
Sebaliknya, jika Sb membesar, maka nilai takan mengecil. Nilai t yang
seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat
menjadikan hasil riset yang mengacaukan
Pengujian
heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang
dapat dituliskan e2 = a + bŶ2 + u. Dari hasil regresi tersebut dihitung nilai R2.
Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian
dibandingkan dengan nilai chi-square (χ 2) pada derajat kesalahan tertentu. Χ Jika R2 x N
lebih besar dari chi-square (χ 2) tabel, maka standar error mengalami heteroskedastisitas. Χ
Sebaliknya, jika R2 x N lebih kecil dari chi-square (χ 2)
tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau
telah homoskedastis
d.
Uji
Multikolinieritas
Multikolinieritas yaitu terjadi
korelasi linear yang ”perfect” atau eksak
di antara variabel penjelas yang dimasukkan ke dalam
model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan
lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah
apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat
yang sama. Apabila antara variabel
penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak
dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya
dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berkolinear
jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.

Konsekuensi Multikolinearitas
Pengujian multikolinearitas
merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena
apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai
koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya,
sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika
antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa
X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari
formula OLS sebagaimana dibahas terdahulu,

akan menghasilkan bilangan
pembagian,

sehingga nilai b1 hasilnya tidak menentu. Hal itu akan
berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan
memperkecil nilai t.
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas,
diantaranya dengan :
1. Menganalisis matrix korelasi dengan Pearson Correlation atau dengan
Spearman’s Rho Correlation,
2. melakukan regresi partial dengan teknik auxilary regression,
3. atau dapat pula dilakukan dengan mengamati nilai variance inflation factor
(VIF).
Cara mendeteksi ada tidaknya
multikolinieritas dengan menghitung nilai korelasi antar variabel dengan
menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan
skala ordinal (Kuncoro, 2001: 114).
Pengujian multikolinearitas
menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya
multikolinearitas. Mengacu pendapat Pindyk dan Rubinfeld22, yang mengatakan
bahwa apabila korelasi antara dua variabel bebas lebih tinggi dibanding
korelasi salah satu atau kedua variabel bebas tersebut dengan variabel terikat.
Dalam kaitan adanya kolinear yang
tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah
multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka
bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi
dapat ditolerir, sepanjang nilai t signifikan.
2.
Kesimpulan
Uji asumsi klasik merupakan syarat yang harus dipenuhi
pada model regresi linier (OLS) agar model tersebut menjadi valid sebagai alat
penduga. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti
bahwa rumus regresi diturunkan dari suatu asumsi tertentu, maksudnya tidak
semua data dapat diperlakukan dengan regresi. Jika data diregresi tidak
memenusi asumsi yang telah memenuhi asumsi regresi maka nilai estimasi yang
terperoleh akan bersifat BLUE (Best,
Liniear, Unbiased, Estimator)
Uji normalitas bertujuan untuk
menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki
distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa
nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji
statistik menjadi tidak valid untuk jumlah sampel kecil.
Uji multikolinearitas bertujuan untuk
menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas
(independen). Model regresi yang baik seharusnya tidak terjadi korelasi di
antara variabel independen. Jika variabel independen saling berkorelasi,maka
variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel
independen yang nilai korelasi antara sesama variabel independen sama dengan
nol.
3.
a. Asumsi
klasik adalah syarat-syarat yang harus dipenuhi pada model regresi
linier
(OLS) agar model tersebut menjadi valid sebagai alat penduga.
b.
Apa saja
asumsi-asumsi yang ditetapkan?
1.
Linier Regresion Model. Model regresi merupakan hubungan linier dalam parameter.
2.
Nilai X adalah tetap dalam sampling
yang diulang-ulang (X fixed in repeated sampling).
3.
Variabel penggangu e memiliki
rata-rata nol (zero mean of disturbance).
4.
Homoskedastisitas, atau variabel
penggangu e memiliki variance yang sama sepanjang obsevasi
dari berbagai nilai X.
5.
Tidak ada autokorelasi antara variabel
e pada setap nilai xi dan ji ( no autocorrelation between the
disturbance).
6.
Variabel X dan disturbance e
tidak berkorelasi.
7.
Jumlah observasi atau besar sample
(n) harus lebih besar dari jumlah parameter yang diestimasi.
8.
Variabel X harus memiliki variabilitas.
9.
Model regresi secara benar telah
terspesifikasi.
10.
Tidak ada multikolinearitas antara
variabel penjelas.
- Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Karena adanya penyimpangan atau tidak terpenuhinnya
asumsi multikolinearitas tidak berarti mengganggu, sepanjang uji t sudah
signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus
multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai
t masih signifikan, maka multikolinearitas tidak perlu diatasi.
- Jelaskan apa yang dimaksud dengan autokorelasi!
autokorelasi keadaan dimana variabel gangguan pada
periode tertentu berkorelasi dengan variabel gangguan pada periode lain.
- Jelaskan kenapa autokorelasi timbul!
autokorelasi akan muncul apabila ada ketergantungan
atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data
berikutnya.
- Bagaimana cara mendeteksi masalah autokorelasi?
Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
1.
Uji Durbin-Watson (DW Test).
2.
Menggunakan metode LaGrange
Multiplier (LM).
- Apa konsekuensi dari adanya masalah autokorelasi dalam model?
Konsekuensinya adalah nilai parameter estimator (b1,
b2,...,bn) model regresi tetap linear dan tidak bias dalam memprediksi B
(parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard
error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias
pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t=b/Sb).
Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti
(misleading).
- Jelaskan apa yang dimaksud dengan heterokedastisitas!
heterokedastisitas adalah Variance residual
harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang
lebih sama.
- Jelaskan kenapa heterokedastisitas timbul!
Masalah heteroskedastisitas lebih sering muncul dalam
data cross section dari pada data time series (Kuncoro, 2001: 112; Setiaji,
2004: 17). Karena dalam data cross section menunjukkan obyek yang berbeda dan
waktu yang berbeda pula.
- Bagaimana cara mendeteksi masalah heterokedastisitas?
Dengan uji grafik, uji Park, Uji Glejser, uji
Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier
- Apa konsekuensi dari adanya masalah heterokedastisitas dalam model?
Dapat mengakibatkan nilai b meskipun tetap linier dan
tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah
heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak
pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t
dihasilkan dari hasil bagi antara b dengan Sb.
- Jelaskan apa yang dimaksud dengan multikolinearitas!
multikolinearitas adalah suatu keadaan dimana terjadi
korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang
dimasukkan ke dalam model.
- Jelaskan kenapa multikolinearitas timbul!
Koefisien
Partial Regresi tidak terukur secara presisi. Perubahan pada satu variabel
dapat menyebabkan perubahan besar pada nilai koefisien regresi parsial variabel
lainnya.
- Bagaimana cara mendeteksi masalah multikolinearitas?
1. menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho
Correlation apabila data dengan skala ordinal
2. untuk data interval atau nominal dapat dilakukan dengan Pearson
Correlation.
- Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti
tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula
terhadap nilai t.
- Jelaskan apa yang dimaksud dengan normalitas!
normalitas adalah sebuah uji yang bertujuan untuk
menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.
Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan
analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas
yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
- Jelaskan kenapa normalitas timbul!
Normalitas timbul apabila bias pada nilai t hitung dan
nilai F hitung, karena pengujian terhadap keduanya diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
- Bagaimana cara mendeteksi masalah normalitas?
1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara
nilai median dengan nilai mean.
2. Menggunakan formula Jarque Bera (JB test)
- Apa konsekuensi dari adanya masalah normalitas dalam model?
Apabila data telah berdistribusi normal maka tidak ada
masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila
data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data
yang out liers, memperbesar sampel, atau melakukan transformasi data.
- Bagaimana cara menangani jika data ternyata tidak normal?
mentransformasi data sebagai upaya untuk menormalkan
sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam
bilangan logaritma. Dengan mentransformasi data ke bentuk logaritma akan
memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas
juga menjadi sangat kecil (Setiaji, 2004: 18).
Tidak ada komentar:
Posting Komentar