Personal Blog || Inspirasi | Imajinasi | Kreasi | Informasi | Pendidikan ||

Tuesday, 20 November 2018

Cara Mengatasi Autokorelasi

Adanya autokorelasi dalam regresi linear (Ordinary Least Squares) menyebabkan variansi sampel tidak dapat menggambarkan variansi populasi. Juga menyebabkan model regresi yang dihasilkan tak dapat digunakan untuk menduga nilai variabel tak bebas dari nilai variabel-behas tertentu, koefisien regresi yang diperoleh kurang akurat. Masalah autokorelasi ini sering terjadi pada regresi linear dengan menggunakan data runtut waktu atau time-series. Maka saatnya diperlukan Cochrane Orcutt.

Cara untuk mendeteksi terjadinya autokorelasi antara lain dengan menggunakan metode grafik, Durbin Watson, atau metode Lagrange Multiplier. Dari hasil pendeteksian tersebut, jika terdapat autokorelasi maka harus diperbaiki dengan cara transformasi.

Metode Cochrane Orcutt

Banyak cara dilakukan dalam transformasi untuk mengatasi masalah autokorelasi. Pemilihan cara transformasi tersebut dipengaruhi oleh “diketahui atau tidak diketahuinya koefisien autokorelasi (p).” Koefisien korelasi (p) disebut juga dengan istilah “Rho“. Jika koefisien autokorelasi diketahui maka tinggal menyelesaikan dengan cara transformasi. Sedangkan jika tidak diketahui maka cara penyelesaiannya dengan terlebih dahulu menaksir koefisien autokorelasi dengan rnenggunakan berbagai metode, antara lain metode Durbin Watson, Theil-Nagar, atau Cochrane-Orcutt.
Setelah koefisien autokorelasi diketahui, maka langkah selanjutnya adalah melakukan transformasi. Kemudian dari data hasil transformasi, dilakukan pendeteksian ulang untuk mendeteksi ada atau tidaknya autokorelasi. Jika pada data hasil transformasi masih terdapat autokorelasi, maka dilakukan transformasi ulang sampai tidak terdapat autokorelasi. Setelah diperoleh data yang terhindar dan autokorelasi, langkah selanjutnya menerapkan dengan metode Ordinary Least Squares (OLS) untuk menentukan koefisien-koefisien regresinya.

Persamaan Cochrane Orcutt

Dalam kesempatan ini, kita akan fokus pada metode transformasi Cochrane Orcutt karena merupakan metode paling dasar dan mudah dipahami. Berikut bentuk persamaan Cochrane Orcutt:
Persamaan Cochrane Orcutt
Persamaan Cochrane Orcutt
Di mana:
Yt: variabel Dependen yang mengikuti waktu t
β: Koefisien Beta yang diestimasi
εt: Error term pada waktu tSedangkan:
Di mana:
ρ: Koefisien Rho
εt-1: residual sampel ke-i dikurangi residual sampel ke-i-1 (sampel sebelumnya)
Catatan: regresi untuk mendapatkan nilai εt di atas, tanpa mengikut sertakan konstanta. Sehingga prosedur transformasi Cochrane Orcutt adalah sebagai berikut:

Untuk lebih jelasnya, langsung saja kita masuk ke tutorial tranformasi Cochrane Orcutt dengan SPSS.

Tutorial Cochrane Orcutt

Buka aplikasi SPSS anda, kemudian isikan data seperti di bawah ini! Untuk lebih mudahnya silahkan anda download saja file kerja dalam tutorial ini DI SINI.
Tabulasi DataCochrane Orcutt
Tabulasi DataCochrane Orcutt
Setelah data terisi dan nama variabel ditetapkan, langsung saja lakukan uji regresi OLS seperti biasanya dengan cara klik menu, analyze, regression, linear, kemudian masukkan variabel bebas ke dalam kotak independent(s) dan variabel terikat ke kotak variabel dependent.
OLS
Regresi OLS

Selanjutnya klik Save dan centang Unstandardized pada Residuals.
Save Unstandardized OLS
Unstandardized OLS

Jangan lupa tekan tombol Statistics dan centang semua, terutama Durbin Watson agar nilai Durbin Watson Hitung (DW) dapat muncul pada output SPSS.
Mengembalikan Nilai DW
Mengembalikan Nilai DW

Setelah anda proses langkah OLS di atas, maka pada output lihat nilai DW, yaitu sebesar 0,137 di mana sangat rendah dan menjauhi 2 dan lebih dekat dengan 0. Untuk lebih jelasnya tentang interprestasi nilai Durbin Watson, silahkan baca artikel kami tentang Durbin Watson Tabel.
Nilai DW
Nilai DW1

Setelah anda pastikan bahwa memang terjadi masalah autokorelasi, maka selanjutnya kita berpikir untuk melakukan transformasi cochrane orcutt. Untuk melakukan itu kita perlu mendapatkan nilai Rho. Untuk mendapatkannya, maka langkah pertama adalah menentukan error atau residual dari regresi linear dengan data asli, di mana langkah tersebut sudah dilakukan di atas, yaitu pada saat centang Unstandardized pada Residuals. Langkah tersebut mengembalikan hasil berupa Unstandardized Residual atau yang disebut juga dengan “Residual” atau “error.”
 
Langkah Transformasi Lag
Langkah berikutnya ialah melakukan transformasi Lag pada variabel residual yang baru di dapat di atas. Lag artinya mengembalikan variabel baru yang merupakan hasil pengurangan nilai dari sampel ke-i dikurangi sampel ke-i – 1. Sampel ke-i artinya sampel yang bersangkutan dan sampel ke-i-1 adalah sampel sebelumnya dari sampel yang bersangkutan. Caranya pada menu klik transform, compute variable, pada kotak target isikan dengan “Lag_e” dan pada kotak numeric expression isikan dengan formula: “Lag(Res_1)” di mana Res_1 adalah Residual.
Transformasi Lag Residual
Transformasi Lag Residual

Setelah itu lakukan regresi dengan variabel bebasnya “Lag_e” dan variabel terikatnya Res_1.
Regresi Error
Regresi Error

Jangan lupa tekan tombol options dan hilangkan centang Include Constant. Sedangkan pada tombol statistics, jangan centang semua kecuali estimasi dan model fit.
Tanpa Constanta
Tanpa Constanta

Jika sudah anda proses maka lihat output anda dan baca pada tabel Coefficients.
Koefisien Rho
Koefisien Rho

Lihat bahwa nilai Beta sebesar 0,925. Nilai 0,925 itulah yang disebut dengan Koefisien Rho. Pada sampai tahap ini kita sudah mendapatkan nilai Rho dan selanjutnya yang harus dilakukan adalah melakukan transformasi Cochrane Orcutt.
Untuk proses transformasi Cochrane Orcutt sampai tahap uji autoregresi selanjutnya, akan kita bahas pada artikel selanjutnya, yaitu Cochrane Orcutt dengan SPSS.
.


Saturday, 30 June 2018

Uji Asumsi Klasik

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda
yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik
atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
www.sejuta-sehari.Com Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.

1. Uji Normalitas
Uji normalitas
adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov
sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming
data outliers
atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

2. Uji Multikolinearitas
Uji multikolinearitas
adalah untuk melihat ada atau tidaknya
korelasi
yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.


3. Uji Heteroskedastisitas
Uji heteroskedastisitas
adalah untuk melihat apakah terdapat ketidaksamaan
varians
dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.

Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistik yang dapat digunakan adalah
uji Glejser
, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.

4. Uji Autokorelasi
Uji autokorelasi
adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.

Uji autokorelasi hanya dilakukan pada data
time series (runtut waktu)
dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.

5. Uji Linearitas Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.