085865141296

customerservice.scundip@gmail.com

  1. Tinjauan Pustaka

Analisis/uji regresi merupakan suatu kajian dari hubungan antara satu variabel, yaitu variabel yang diterangkan (the explained variabel) dengan satu atau lebih variabel, yaitu variabel yang menerangkan (the explanatory). Apabila variabel bebasnya hanya satu, maka analisis regresinya disebut dengan regresi sederhana. Apabila variabel bebasnya lebih dari satu, maka analisis regresinya dikenal dengan regresi linear sederhana. Dikatakan sederhana karena terdapat beberapa variabel bebas yang mempengaruhi variabel tak bebas. Tujuan dari metode ini adalah untuk memprediksi nilai Y untuk nilai X yang diberikan. Analisis regresi memiliki beberapa kegunaan, salah satunya untuk melakukan prediksi terhadap variabel terikat Y. Persamaan untuk model regresi linier sederhana adalah sebagai berikut.

Y = a + bX                                            (1)

Y adalah variabel terikat yang diramalkan, X adalah variabel bebas, a adalah intercep, yaitu nilai Y pada saat X=0, dan b adalah slope, yaitu perubahan rata-rata Y terhadap perubahan satu unit X. Koefisien a dan b adalah koefisien regresi dimana nilai a dan b dapat dicari menggunakan persamaan berikut.

 

 

 

 

Penggunaan metode analisis regresi linear sederhana memerlukan uji asumsi klasik yang secara statistik harus dipenuhi

A. Data

Data Penelitian adalah segala fakta dan angka yang dapat dijadikan bahan untuk menyusun suatu informasi (Suharsimi Arikunto, 2002 : 96). Pada penelitian dengan menggunakan metode regresi linier sederhana ini data yang digunakan adalah data interval atau rasio.

B. Uji Asumsi Klasik

Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh. dilakukan analisis terhadap semua uji asumsi klasik. lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut dan setelah memenuhi persyaratan dilakukan pengujian pada uji yang lain.

  • Uji Normalitas

Asumsi normalitas adalah asumsi residual yang berdistribusi normal. Asumsi ini harus dipenuhi untuk model regresi linier yang baik. Uji normalitas dilakukan pada nilai residual model regresi. Penyebab terjadinya kasus normalitas sebagai berikut:

  • Terdapat data residual dari model regresi yang memiliki nilai data yang berada jauh dari himpunan data atau data ekstrim (outliers), sehingga penyebaran datanya menjadi non normal.
  • Terdapat kondisi alami dari data yang pada dasarnya tidak berdistribusi normal atau berdistribusi lain. seperti: distribusi binomial. multinomial. gamma. dll.
  • Uji Linieritas

Asumsi linearitas digunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson. Ramsey Test atau uji Lagrange Multiplier.

  • Uji Multikoliniertas

Asumsi multikolinieritas adalah asumsi yang menunjukkan adanya hubungan linear yang kuat diantara beberapa variabel prediktor dalam suatu model regresi linear sederhana. Model regresi yang baik memiliki variabel-variabel prediktor yang independen atau tidak berkorelasi. Pada pengujian asumsi ini, diharapkan asumsi multikolinieritas tidak terpenuhi.

  • Uji Heteroskedatisitas

Asumsi heteroskedatisitas adalah asumsi residual dari model regresi yang memiliki varian tidak konstan. Pada pemeriksaan ini, diharapkan asumsi heteroskedatisitas tidak terpenuhi karena model regresi linier sederhana memiliki asumsi varian residual yang konstan (homoskedastisitas)

  • Uji Autokorelasi

Asumsi autokorelasi merupakan asumsi residual yang memiliki komponen/nilai yang berkorelasi berdasarkan waktu (urutan waktu) pada himpunan data itu sendiri. Proses autokorelasi terjadi ketika kovarian antara ɛi dengan ɛi tidak sama dengan nol dengan Cov(ɛi. ɛj) ≠ 0; i ≠ j Pada pengujian ini diharapkan asumsi autokorelasi tidak terpenuhi.

C. Pengambilan Keputusan

Pengambilan keputusan dalam uji regresi sederhana dapat dilakukan dengan 2 cara, diantaranya adalah dengan membandingkan nilai t hitung dengan t tabel, atau dengan membandingkan nilai signifikansi dengan nilai probabilitas 0,05.

  1.  t hitung dan t tabel:

> t hitung lebih besar dari t tabel ( variabel bebas berpengaruh terhadap variabel terikat ).

> t hitung tidak lebih besar dari t tabel (variabel bebas tidak berpengaruh terhadap variabel terikat ).

  1. Signifikansi dengan probabilitas 0,05:

> Jika nilai signifikansi tidak lebih dari nilai probabilitas 0,05 ( variabel bebas berpengaruh secara    signifikan terhadap variabel terikat ).

> Jika nilai signifikansi lebih dari nilai probabilitas 0,05 ( variabel bebas tidak berpengaruh secara signifikan terhadap variabel terikat ).

     2. Kasus

Diketahui data :

Langkah-Langkah :

  • Input data excel ke dalam aplikasi SPPS.

  • Pilih menu Analyze, kemudian pilih Linear

  • Pilih variabel IPM sebagai variabel dependen (terikat) dan RLS sebagai variabel independen (bebas) lalu klik tombol OK

  • Klik PLOTS, masukkan ZPRED ke kolom X dan ZRESID ke kolom Y lalu klik next masukkan ZPRED kekolom X dan SRESID ke kolom Y centang “normal probability plot”

  • Klik STATISTICS centang opsi mana saja yang ingin di tampilkan di dalam output, Pada kasus ini centang pada bagian Estimate, Model Fit, Durbin Watson, Collinearity diagnostics

  • Klik SAVE lalu centang Unstandartized Residual dan Unstardatized Predictor

  • Klik continue
  • Klik OK
  • Uji Normalitas

ANALISIS HASIL

Asumsi Klasik

  • Normalitas

Tujuan dari Uji Normalitas adalah untuk mengetahui apakah residual berdistribusi normal atau tidak.

a. Secara Visual

Dapat dilihat bahwa plot-plot mengikuti garis lurus, sehingga dapat disimpulkan bahwa residual berdistribusi normal. Maka asumsi normalitas terpenuhi secara visual.

b. Secara Formal

Hipotesis

H0 : residual berdistribusi normal

H1 : residual tidak berdistribusi normal

Taraf signifikansi : α = 5%

Dari output diperoleh hasil bahwa residual berdistribusi normal karena H0 diterima (Sig. (Kolmogorov-Smirnov) = 0,200 > α = 0,05), sehingga disimpulkan asumsi normalitas terpenuhi.

  • Linieritas

Dapat dilihat bahwa sebaran data acak atau tidak membentuk pola tertentu maka

dapat disimpulkan bahwa uji linieritas terpenuhi. (zresid by zpred scatterplot)

  • Multikolinieritas

Masalah multikolinearitas muncul jika terdapat hubungan yang sempurna atau pasti di antara satu atau lebih variable independen dalam model. Pengujian multikolinearitas dapat di lakukan dengan melihat nilai VIF-nya pada tabel Coefficients di dalam output.

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

 

Hasil pengujian menunjukkan bahwa nilai VIF tidak ada yang melebihi angka 10. Hal ini berarti bahwa variabel-variabel penelitian menunjukkan tidak terjadi multikolinearitas dalam model regresi.

  • Nonautokorelasi

Autokorelasi adalah adanya korelasi dari data t dan data ke t-1 Autokorelasi dapat diuji dengan melihat nilai Durbin Watson nya pada kolom model summary. Secara konvensional dapat dikatakan bahwa suatu persamaan regresi dikatakan telah memenuhi asumsi autokorelasi (tidak terjadi autokorelasi) jika nilai dari uji Durbin-Watson berada pada selang DU < DW < 4 – DU. Metode pengujian yang sering digunakan adalah dengan uji DurbinWatson (uji DW) dengan ketentuan sebagai berikut:

Hipotesis :

H0: Tidak ada autokorelasi

H1: Ada autokorelasi Taraf signifikansi : α=5%

Statistik Uji :

Dari Output SPSS nilai Durbin Watson = 1.489

Karena dU(1.4019) < dw(1.489) < 4-du(2.4809) maka dapat disimpulkan tidak terjadi autokorelasi. Sehingga asumsi nonautokorelasi terpenuhi. (DL dan DU dilihat dari table Durbin Watson.)

  • Heteroskedastisitas

Digunakan untuk mengetahui apakah varian dari residual konstan atau tidak. Untuk Uji Heteroskedastsitas ada 2 cara yaitu dengan Uji Visual dan Uji Formal.

  • Uji Visual

Dari grafik sresid by zpred scatterplot asumsi Heteroskedastisitas terpenuhi jika residual menyebar secara acak dan tidak membentuk pola.

Dari grafik scatterplot dapat dilihat bahwa data cenderung menyebar secara acak sehingga dapat disimpulkan bahwa tidak terjadi heterokedastisitas. Secara visual asumsi heteroskedastisitas terpenuhi.

  • Uji Formal

Pada tabel Coefficients nilai signifikansi pada variabel Rata-rata Lama Sekolah dan Harapan Lama Sekolah > α (0,05) sehingga dapat disimpulkan bahwa tidak terdapat masalah heteroskedastisitas (asumsi homoskedastisitas terpenuhi).

 

Setelah semua asumsi terpenuhi, kini masuklah kedalam uji model regresi linier

  • Uji Kecocokan model (Uji F)

Rumusan Hipotesis : H0 : b 0 = b1 = b 2 = 0 atau model tidak sesuai :0 H1 bi ¹ , untuk paling sedikit satu i atau model regresi sesuai Keputusan : Diperoleh nilai F = 250.321 dengan signifikansi = 0.000. Karena signifikansi 0,000 < a = 0.05 , maka H0 ditolak. Jadi Model sesuai Jadi model regresi dapat dipakai untuk memprediksi Indeks Pembangunan Manusia.

  • Uji Koefisien Regresi Secara Individu (Uji-t)

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

 

Rumusan Hipotesis :

H0 b0 =0

H1 : b0 ¹ 0

Keputusan : Diperoleh nilai t = 15.822 dengan signifikansi = 0.000. Karena signifikansi 0,000 < a = 0.05 , maka H0 ditolak. Jadi variabel Rata-rata Lama Sekolah mempengaruhi Indeks Pembangunan Manusia secara signifikan.

Sehingga diperoleh model regresi linier sederhana sebagai berikut:

IPM=44,694+3,394RLS

  • Koefisien Determinasi

Diperoleh nilai koefisien determinasi =0.884. Artinya bahwa sebesar 88,4 variabel rata-rata lama sekolah dan harapan lama sekolah mempengaruhi Indeks Pembangunan Manusia. Sedangkan sisanya sebesar 21.6% dipengaruhi oleh faktor lain.

CONTOH LAIN

Untuk contoh lain, kamu bisa menontonnya melalui Video pada Channel Youtube Kami dibawah ini