Selasa, 11 Juli 2017

EKONOMETRIKA BAB V - UJI ASUMSI KLASIK



BAB V
UJI ASUMSI KLASIK


1.    Rangkuman BAB V

Baik dalam regresi linier sederhana ataupun regresi linier berganda bahwa dalam kedua regresi tersebut perlu memnuhi asumsi-asumsi seperti yang telah diuraikan dalam kedua bahasan tersebut. Jika data regresi tidak memnuhi asumsi-asumsi yang telah disebutkan maka akan menghasilkan regresi bias. Tetapi apabila regresi memenuhi asumsi-asumsi regresi maka nilai estimasi diperoleh bersifat BLUE (Best, Liniear, Unbiased, Estimator) yang merupakan uji asumsi OLS yang dikemukakan oleh Gauss dan Markovv. Secara teritis model OLS akan menghasilkan estimasi nilai parameter model penduga sahih apabila dipenuhi asumsi tidak ada autokorlasi, tidak ada multikoliniearitas, tidak ada heteroskedastisitas.

a.    Uji Autokolerasi
Autokorelasi adalah keadaan dimana variable gangguan pada periode tertentu berkolerasi dengan variable gangguan pada periode lain. Autokolerasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya, secara matematis dituliskan :
E(ui,uj)0;     ij

Sebaliknya apabila tidak terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya maka autokolerasi tidak akan muncul, secara matematis dituliskan :
E(ui,uj)= 0;        ij

           
Sebab-sebab Autokolerasi :
1.    Kesalahan dalam pembentukan model
2.    Tidak memasukan variable yang penting
3.    Manipulasi Data
4.    Menggunakan Data Yang Tidak Empiris

Akibat Autokolerasi :
Meskipun ada autokolerasi, nilai parameter estimator (b1,b2.....bn) model regresi tetap linier dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1,Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula,karena nilai t diperoleh dari hasil bagi Sb terhadap b (t=b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

Pengujian Autokolerasi
1.    Uji Durbin-Watson (DW Test)
                    Uji DW yang secara popular digunakan untuk mendeteksi adanya serial kolerasi dikembangkan oleh ahli statistic Durbin dan Watson dengan formula sebagai berikut :
Description: C:\Documents and Settings\OWNER\My Documents\DW.png




Asumsi yang harus diketahui pada DW test ini adalah :
a.       Terdapat intercept dalam model regresi
b.      Variabel penjelasnya tidak random (nonstochastics)
c.       Tidak ada unsure lag dari variable dependen di dalam model
d.      Tidak ada data yang hilang
e.       Υt =ρυt1 +εt

Standar Keputusan DW Test :
o   DW< dL               = terdapat   atokorelasi positif
o   dL<DW<dU         = tidak dapat disimpulkan (inconclusive)
o   dU> DW>4-dU    = tidak   terdapat autokorelasi
o   4-dU< DW<4-dL  = tidak dapat disimpulkan (inconclusive)
o   DW> 4-dL             =  terdapat  autokorelasi negative

Dimana
o   DW    = Nilai Durbin-Watson d statistik
o   dU      = Nilai batas atas (di dapat dari tabel)
o   dL      = Nilai batas bawah (didapat dari tabel)


2.    Menggunakan Metode LaGrande Multipler (LM)
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:

Y  =    β0+ β1X1+β2X2+ β3Yt-1+β4Yt-2  + ε

Variabel Yt-1 merupakan variabel lag 1 dari Y.
Variabel Yt-2 merupakan variabel lag 2 dari Y.

Sebagai  kunci  untuk  mengetahui   pada  lag berapa autokorelasi muncul, dapat dilihat dari signifikan  tidaknya variabel lag tersebut. Ukuran yang  digunakan   adalah  nilai  t  masing-masing variabel lag yang dibandingkan  dengan t tabel, seperti yang  telah dibahaspada  uji t sebelumnya.

b.        Uji Normalitas
Pengujian normalitas dilakukan sebelum atau setelah tahapan analisis regresi. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu,maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F  hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data,  sedangkan ternyata  hasilnya tidak normal maka analisis regresi harus diulang lagi.
                       
            Beberapa cara untuk melakukan uji normalitas antara lain:
·         Menggunakan metode numerik yang membandingkan nilai statistic
·         Menggunakan formula Jarque Bera (JB test)
Description: C:\Documents and Settings\OWNER\My Documents\jb.jpg
           

Dimana :
S= Skewness (kemencengan) distribusi data
K=Kurtosis (keruncingan)

·         Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa presentase data observasi dan berada di area mana. Denag langkah awal menghitung standar deviasi dengan rumus berikut.
SD=(DvDv)
·         n

Dalam pengujian normalitas ada dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Data berdistribusi normal tidak ada masalah, apabila data berdistribusi tidak normal maka diperlukan upaya untuk mengatasi seperti memotong data outliners, memperbesar sampel, taau melakukan transformasi data. Hingga membentuk diagram seperti berikut


c.         Uji Heteroskedastisitas
Masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai takan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + bŶ2 + u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (χ 2) pada derajat kesalahan tertentu. Χ Jika R2 x N lebih besar dari chi-square (χ 2) tabel, maka standar error mengalami heteroskedastisitas. Χ Sebaliknya, jika R2 x N lebih kecil dari chi-square (χ 2) tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah homoskedastis

d.        Uji Multikolinieritas
Multikolinieritas yaitu terjadi korelasi linear yang ”perfect” atau eksak
di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berkolinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Sebagai gambaran penjelas, dapat dilihat pada gambar berikut ini:













Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,
akan menghasilkan bilangan pembagian,   
sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.

Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, diantaranya dengan :
1.    Menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation,
2.    melakukan regresi partial dengan teknik auxilary regression,
3.    atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).

Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara dua variabel bebas lebih tinggi dibanding korelasi salah satu atau kedua variabel bebas tersebut dengan variabel terikat.
Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.




2.      Kesimpulan
Uji asumsi klasik merupakan syarat yang harus dipenuhi pada model regresi linier (OLS) agar model tersebut menjadi valid sebagai alat penduga. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa rumus regresi diturunkan dari suatu asumsi tertentu, maksudnya tidak semua data dapat diperlakukan dengan regresi. Jika data diregresi tidak memenusi asumsi yang telah memenuhi asumsi regresi maka nilai estimasi yang terperoleh akan bersifat BLUE (Best, Liniear, Unbiased, Estimator)
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil.
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi,maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel independen yang nilai korelasi antara sesama variabel independen sama dengan nol.

3.    a. Asumsi klasik adalah syarat-syarat yang harus dipenuhi pada model regresi
   linier (OLS) agar model tersebut menjadi valid sebagai alat penduga.
b.    Apa saja asumsi-asumsi yang ditetapkan?
1.            Linier Regresion Model. Model regresi merupakan hubungan linier dalam parameter.
2.            Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
3.            Variabel penggangu e memiliki rata-rata nol (zero mean of disturbance).
4.            Homoskedastisitas, atau variabel penggangu e memiliki variance yang sama sepanjang obsevasi dari berbagai nilai X.
5.            Tidak ada autokorelasi antara variabel e pada setap nilai xi dan ji ( no autocorrelation between the disturbance).
6.            Variabel X dan disturbance e tidak berkorelasi.
7.            Jumlah observasi atau besar sample (n) harus lebih besar dari jumlah parameter yang diestimasi.
8.            Variabel X harus memiliki variabilitas.
9.            Model regresi secara benar telah terspesifikasi.
10.        Tidak ada multikolinearitas antara variabel penjelas.

  1. Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Karena adanya penyimpangan atau tidak terpenuhinnya asumsi multikolinearitas tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi.
  1. Jelaskan apa yang dimaksud dengan autokorelasi!
autokorelasi keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain.
  1. Jelaskan kenapa autokorelasi timbul!
autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.
  1. Bagaimana cara mendeteksi masalah autokorelasi?
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1.            Uji Durbin-Watson (DW Test).
2.            Menggunakan metode LaGrange Multiplier (LM).
  1. Apa konsekuensi dari adanya masalah autokorelasi dalam model?
Konsekuensinya adalah nilai parameter estimator (b1, b2,...,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t=b/Sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
  1. Jelaskan apa yang dimaksud dengan heterokedastisitas!
heterokedastisitas adalah Variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama.
  1. Jelaskan kenapa heterokedastisitas timbul!
Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001: 112; Setiaji, 2004: 17). Karena dalam data cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula.
  1. Bagaimana cara mendeteksi masalah heterokedastisitas?
Dengan uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier
  1. Apa konsekuensi dari adanya masalah heterokedastisitas dalam model?
Dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.
  1. Jelaskan apa yang dimaksud dengan multikolinearitas!
multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.
  1. Jelaskan kenapa multikolinearitas timbul!
Koefisien Partial Regresi tidak terukur secara presisi. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien regresi parsial variabel lainnya.
  1. Bagaimana cara mendeteksi masalah multikolinearitas?
1.       menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation apabila data dengan skala ordinal
2.       untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation.
  1. Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t.
  1. Jelaskan apa yang dimaksud dengan normalitas!
normalitas adalah sebuah uji yang bertujuan untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
  1. Jelaskan kenapa normalitas timbul!
Normalitas timbul apabila bias pada nilai t hitung dan nilai F hitung, karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
  1. Bagaimana cara mendeteksi masalah normalitas?
1.       Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean.
2.       Menggunakan formula Jarque Bera (JB test)
  1. Apa konsekuensi dari adanya masalah normalitas dalam model?
Apabila data telah berdistribusi normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.
  1. Bagaimana cara menangani jika data ternyata tidak normal?
mentransformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma. Dengan mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).

Tidak ada komentar:

Posting Komentar