Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda
yang berbasis ordinary least square (OLS). Jadi analisis regresi yang
tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik,
misalnya regresi logistik
atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik harus dilakukan pada
analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan
pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu
diterapkan pada data cross sectional.
![www.sejuta-sehari.Com](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGXpt_GBfrWaM3ypTomyYaczOxWaqIbLLBm6K7WjPJda8hSPteZdjop28WAjCq1zRjCBa0NrO6CfelEVW0-jn6AHZJXDCs3A8HFWJ-y-6vN8meUDQQP-EE8kR-ZXq07LgPC5y8EI_allM/s1600/banerr+semua+kaya+klip.gif)
Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.
1. Uji Normalitas
Uji normalitas
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah
kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya
hanya sedikit dan sebagian besar berada pada kategori sedang atau
rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau
sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai
maka kelas tersebut tidak normal atau merupakan kelas unggulan.
Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan
ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian
juga nilai rata-rata, modus dan median relatif dekat.
adalah untuk melihat apakah nilai residual terdistribusi normal atau
tidak. Model regresi yang baik adalah memiliki nilai residual yang
terdistribusi normal. Jadi uji normalitas bukan dilakukan pada
masing-masing variabel tetapi pada nilai residualnya. Sering terjadi
kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada
masing-masing variabel. Hal ini tidak dilarang tetapi model regresi
memerlukan normalitas pada nilai residualnya bukan pada masing-masing
variabel penelitian.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov
sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin
memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka
dapat dilakukan beberapa langkah yaitu: melakukan transformasi data,
melakukan trimming
data outliers
atau menambah data observasi. Transformasi dapat dilakukan ke dalam
bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain
tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke
kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
2. Uji Multikolinearitas
Uji multikolinearitas
Alat statistik yang sering dipergunakan untuk menguji gangguan
multikolinearitas adalah dengan variance inflation factor (VIF),
korelasi pearson antara variabel-variabel bebas, atau dengan melihat
eigenvalues dan condition index (CI).
adalah untuk melihat ada atau tidaknya
korelasi
yang
tinggi antara variabel-variabel bebas dalam suatu model regresi linear
berganda. Jika ada korelasi yang tinggi di antara variabel-variabel
bebasnya, maka hubungan antara variabel bebas terhadap variabel
terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi
dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja
dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah
bahwa model tersebut untuk mencari pengaruh antara motivasi,
kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada
korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi
dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.
3. Uji Heteroskedastisitas
Uji heteroskedastisitas
adalah untuk melihat apakah terdapat ketidaksamaan
varians
dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi
yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari
residual satu pengamatan ke pengamatan yang lain tetap atau disebut
homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot
dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai
residualnya). Model yang baik didapatkan jika tidak terdapat pola
tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian
melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang
dapat digunakan adalah
uji Glejser
, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi
heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk
logaritma, yang hanya dapat dilakukan jika semua data bernilai positif.
Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel
yang mengalami gangguan heteroskedastisitas.4. Uji Autokorelasi
Uji autokorelasi
adalah untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis
regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan
data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat
inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data
tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan
dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat
gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran
rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga
mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada
pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data
time series (runtut waktu)
dan tidak perlu dilakukan pada data cross section seperti pada
kuesioner di mana pengukuran semua variabel dilakukan secara serempak
pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek
Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan
uji autokorelasi.
5. Uji Linearitas Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.