
(sebagai syarat mutlak menganalisa
Regresi Linier Berganda OLS)
Mengapa ada uji asumsi klasik?
·
Agar model yang nantinya digunakan dapat membentuk sebuah
estimasi yang BLUE (Best, Linier,
Unbiased, Estimator) dan uji tidak boleh dilanggar.
Best (terbaik):
·
Garis regresi merupakan estimasi /ramalan yang baik dari
suatu sebaran data.
·
Garis regresi merupakan cara memahami pola hubungan antara
dua seri data atau lebih.
·
Garis regresi adalah best
jika garis itu menghasilkan error
yang kecil.
·
Error adalah perbedaan
antara nilai observasi dan nilai yang diramalkan oleh garis regresi.
·
Jika best
disertai sifat unbiased maka estimator regresi disebut efisien.
Unbiased estimator
Suatu estimator dikatakan unbiased jika nilai harapan dari estimator
β sama dengan nilai yang benar dari β (rata-rata β = β)/ konsisten.
Metode kuadrat terkecil akan menghasilkan estimator yang BLUE.
Estimator yang BLUE yang memiliki varian minimum disebut estimator yang efisien
(efficient estimator).
Uji Asumsi Klasik, ada 5 yaitu:
v Linear
Estimator β disebut linear jika estimator itu
merupakan fungsi linier dari sampel. Rata-rata x adalah estimator yang linear,
karena merupakan fungsi linear dari nilai-nilai x. Nilai-nilai OLS (Ordinary Least Square) juga merupakan estimator yang linear.
v Multikolinearitas
ü Model regresi
dikatakan terkena multikolinearitas bila terjadi hubungan linear yang sempurna dan pasti, diantara
beberapa atau semua variabel bebas dari model regresi (Ragnar Frisch).
ü Multikolinearitas
dapat terjadi karena:
1. Kesalahan metode
pengumpulan data
3. Memasukkan
variabel independen yang salah
4. Model
penelitiannya berlebihan atau jumlah variabel independennya lebih banyak
dibandingkan jumlah data atau jumlah observasi.
ü Dipergunakan
untuk analisis regresi berganda yang terdiri dari 2 atau lebih variabel bebas (independent variabel).
ü Untuk mengukur
keeratan hubungan atau pengaruh antar variabel bebas melalui besaran koefisien
korelasi (r). Jika antar variabel bebas terjadi korelasi, maka dapat dikatakan
datanya tidak baik karena tidak ortogonal.
ü Tidak terjadi
multikolinearitas jika nilai r-nya lebih kecil atau sama dengan 0,60
(r<0,60).
Akibat
multikolinearitas:
ü Sulit mendapatkan
estimasi yang tepat terhadap data.
ü Nilai hitung uji
statistik t akan kecil, sehingga variabel independen menjadi tidak signifikan.
Cara
mengobati multikolinearitas:
ü Menggabungkan
data cross section dan time series.
ü Mengeluarkan satu
atau lebih variabel independen yang mempunyai korelasi tinggi dari model regresi
dan identifikasikan variabel independen lainnya untuk membantu prediksi.
ü Gunakan model
dengan variabel independen yang mempunyai korelasi tinggi untuk prediksi.
ü Gunakan metode
analisis regresi bayesian atau regresi Ridge.
v Heterokedastisitas
ü Menguji sama atau
tidaknya varians dan residual.
ü Ada tidaknya
heterokedastisitas dapat dilihat langsung dari data. Jika variasi data
cenderung tidak seragam/ variasi selisihnya besar.
ü Diuji dengan Uji
Rank Spearman (paling populer, karena merangking nilai absolut residual dari
terkecil sampai terbesar).
ü Mengobati dengan:
metode WLS atau metode white.
v Autokorelasi
ü Terjadi karena:
data time series sering kali terjadi
gangguan dan gangguan akan saling berhubungan.
ü Contoh: data GDP
dari tahun 2000-2010.
ü Diuji menggunakan
Durbin Watson.
ü Diobati dengan:
metode estimasi ᵨ (rho) yang ada di dalam uji Durbin
Watson.
v Normalitas
ü Uji normalitas
digunakan untuk memenuhi asumsi dilakukannya analisis regresi yang akan
melakukan penaksiran sekaligus pengujian, dimana untuk kepentingan ini variabel
yang bersifat random harus berdistribusi normal.
ü Pengujian
normalitas cukup dilakukan hanya terhadap variabel dependen saja, dikarenakan
hanya variabel dependen yang memiliki sifat random. Jika sejumlah besar
variabel random yang didistribusikan
secara independen dan identik, maka dengan beberapa pengecualian,
distribusi jumlahnya cenderung ke distribusi normal bila banyaknya variabel
seperti itu meningkat tak terbatas (Gujarati, N. Damodar,1993:66). Dengan dasar
ini, maka pengujian normalitas data hanya dilakukan terhadap variabel dependen
saja.
ü Jika asumsi ini
tidak terpenuhi, artinya bahwa data tidak berdistribusi normal, maka kesimpulan
berdasarkan teori tidak berlaku. Untuk mengatasinya, dapat dengan cara menambah
sampel observasi atau dengan cara mengeliminasi beberapa sampel yang memiliki
data yang ekstrim dan dianggap sebagai suspect
tidak terpenuhinya normalitas data. Karenanya, sebelum teori lebih lanjut
digunakan dan kesimpulan diambil berdasarkan teori dimana asumsi normalitas
dipakai, terlebih dahulu perlu diselidiki apakah asumsi itu, terpenuhi atau
tidak (Sudjana, 2005:150).
v Linearitas
Pasangan nilai x
dan y yang diwujudkan dalam bentuk titik (x,y) disebut koordinat. Kalau
koordinat-koordinat ini dihubungkan satu sama lain secara berurutan ini akan
terbentuk satu garis, yang disebut garis regresi. Jika garis regresi membentuk
satu garis lurus, maka garis tersebut dinamakan fungsi linear. Namun kalau
tidak membentuk garis lurus, garis regresinya dinamakan fngsi non-linear.
Fungsi linear dapat menunjukkan bentuk hubungan yang positif atau negatif.

boleh tanya sista,... kalo simultan itu sama aja tidak ya dengan bersama-sama soalnya ada yang bilang beda karena simultan itu ada rumusnya dan lebih rumit, tolong minta pencerahannya sist,... masalahnya urgent nii sist.. makasiii
BalasHapus