analisis regresi (presentasi)

13
Statistika Matematika II Analisis Regresi 1 ANALISIS REGRESI A. PENDAHULUAN Istilah “regresi” pertama kali diperkenalkan oleh Sir Francis Galton pada tahun 1886. Galton menemukan bahwa ada kecenderungan bagi orang tua yang tinggi akan mempunyai anak yang tinggi dan sebaliknya. Meskipun demikian, ia mengamati bahwa tinggi anak bergerak menuju rata-rata tinggi anak secara keseluruhan. Dengan kata lain ketinggian anak yang amat tinggi atau orang tua yang amat pendek cenderung bergerak ke arah rata-rata tinggi populasi. Inilah yang disebut hokum Galton mengenai regresi universal. Secara umum analisis regresi adalah studi mengenai ketergantungan variabel dependen (respon) dengan satu atau lebih variabel independen (penjelas/ bebas). Dalam analisis regresi linier, jika jumlah variabel prediktor X satu maka disebut regresi linier sederhana, sedangkan jika lebih dari satu misalnya k peubah prediktor maka disebut regresi berganda. Pendugaan parameter regresi untuk model regresi berganda pada hakekatnya hanyalah perluasan konsep regresi sederhana (Sugiarto, 1992). Hasil analisis regresi adalah berupa koefisisen untuk masing-masing veriabel independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel respon dengan suatu persamaan.

Upload: risky-sukma-w-mangaholic

Post on 30-Nov-2015

146 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

1

ANALISIS REGRESI

A. PENDAHULUAN

Istilah “regresi” pertama kali diperkenalkan oleh Sir Francis Galton pada tahun

1886. Galton menemukan bahwa ada kecenderungan bagi orang tua yang tinggi akan

mempunyai anak yang tinggi dan sebaliknya. Meskipun demikian, ia mengamati bahwa

tinggi anak bergerak menuju rata-rata tinggi anak secara keseluruhan. Dengan kata lain

ketinggian anak yang amat tinggi atau orang tua yang amat pendek cenderung bergerak

ke arah rata-rata tinggi populasi. Inilah yang disebut hokum Galton mengenai regresi

universal.

Secara umum analisis regresi adalah studi mengenai ketergantungan variabel

dependen (respon) dengan satu atau lebih variabel independen (penjelas/ bebas). Dalam

analisis regresi linier, jika jumlah variabel prediktor X satu maka disebut regresi linier

sederhana, sedangkan jika lebih dari satu misalnya k peubah prediktor maka disebut

regresi berganda. Pendugaan parameter regresi untuk model regresi berganda pada

hakekatnya hanyalah perluasan konsep regresi sederhana (Sugiarto, 1992). Hasil

analisis regresi adalah berupa koefisisen untuk masing-masing veriabel independen.

Koefisien ini diperoleh dengan cara memprediksi nilai variabel respon dengan suatu

persamaan.

B. Pengujian Asumsi Klasik Regresi

Sehubungan digunakannya alat-alat statistik dalam analisis data, agar analisis

tersebut memperoleh hasil yang lebih akurat dan maka persyaratan atau asumsi yang

melandasi penggunaan alat analisis harus dipenuhi. Di dalam persamaan model regresi

linear berganda, dikenal beberapa asumsi yang mendasari persamaan model yang

menyangkut; Linieritas, normalitas residual data (normality error term),

multikolinearitas, homoskedastisitas, dan autokorelasi, di mana perlu dilakukan

pengujian dengan maksud untuk mengetahui apakah persamaan model regresi yang

ditentukan tersebut merupakan model yang dapat menghasilkan estimasi yang tidak

Page 2: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

2

bias. Hair (1998) juga menyatakan bahwa terdapat tiga asumsi klasik dalam regresi

linear yang harus diuji, yaitu outlier–normalitas, linieritas, homoskedastisitas, dan

autokorelasi meskipun dalam penjelasannya lebih lanjut beberapa asumsi dapat

dianggap tidak kritis dalam analisis.

1. Normalitas Galat Model

Uji normalitas galat bertujuan untuk menguji apakah dalam model regresi,

variabel galat memiliki distribusi normal. Seperti diketahui bahwa uji t dan F

mengasumsikan bahwa nilai galat mengikuti distribusi normal. Kalau asumsi ini

dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara

untuk mendeteksi apakah galat berdistribusi normal atau tidak, yaitu dengan analisis

grafik dan uji statistik.

a. Analisis Grafik

Salah satu cara termudah untuk melihat normalitas galat adalah dengan melihat

grafik histogram yang membandingkan antara data observasi dengan distribusi yang

mendekati distribusi normal. Namun demikian, hanya dengan melihat histogram dapat

menyesatkan, khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal

adalah dengan melihat Normal Probability Plot yang membandingkan distribusi

kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus

diagonal dan poting data residual / galat akan dibandingkan dengan garis diagonal.

Jika distribusi data galat normal, maka garis yang menggambarkan data sesungguhnya

akan mengikuti garis diagonalnya.

b. Analisis Statistik

Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual

kelihatan normal, pdahal secara statistik bisa sebaliknya. Oleh karena itu, dianjurkan

disamping uji grafik, dilengkapi dengan uji statistik. Dalam hal ini, pengujian dapat

dilakukan dengan Uji Kolmogorov–Smirnov (K-S). uji K-S dilakukan dengan membuat

hipotesis:

H0 = galat berdistribusi normal

H1 = galat tidak berdistribusi normal

Page 3: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

3

Contoh:

1. Seorang peneliti ingin mengetahui pengaruh dari pendapatan keluarga (X) terhhadap

pengeluaran konsumsi (Y) dari 8 keluarga petani cuplikan yang ditarik secara acak

dari sebuah desa. Data hasil penelitian atas ke-8 petani cuplikan tersebut tampat

dibawah ini.

Petani Cuplikan Pengeluaran konsumsi (Y) Pendapatan keluarga (X)

A 15 20

B 13 18

C 10 14

D 17 16

E 9 12

F 8 10

G 10 14

H 14 16

Jumlah 96 120

1. Normalitas

- Tentukan H0 dan H1

H0 = sampel berasal dari populasi yang menyebar normal

H1 = sampel tidak berasal dari populasi yang menyebar normal

- Hitung nilai mean

x=20+18+14+16+12+10+14+168

=1208

=15

- Hitung simpangan baku

s=√ (10−5 )2+ (12−5 )2+(14−5 )2+(14−5 )2+ (16−5 )2+ (16−5 )2+(18−5 )2+(20−5 )2

8−1

¿√ 25+9+1+1+1+1+9+257

=3,21

Page 4: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

4

- Table AD

Diurutka

ni Zi F(Z)

Fl i=ln

F(Z)N+1-i F(n+1-i) 1-F(n+1-i)

F2i-ln(1-

F(n+1-i))F1i+F2i

10 1 -1,56 0,0594 -2,8235 8 0,9406 0,0594 -2,8235 -5,647

12 2 -0,93 0,1762 -1,7361 7 0,8238 0,1762 -1,7361 -3,4722

14 3 -0,31 0,3783 -0,9721 6 0,6217 0,3783 -0,9721 -1,9442

14 4 -0,31 0,3783 -0,9721 5 0,6217 0,3783 -0,9721 -1,9442

16 5 0,31 0,6217 -0,4753 4 0,3783 0,6217 -0,4753 -0,9506

16 6 0,31 0,6217 -0,4753 3 0,3783 0,6217 -0,4753 -0,9506

18 7 0,93 0,8238 -0,1938 2 0,1762 0,8238 -0,1938 -0,3876

20 8 1,56 0,9406 -0,0612 1 0,0594 0,9406 -0,0612 -0,1224

- AD hitung

AD hit =

{1−2.18

(−5,647 )+ 1−2.28

(−3,4722 )+ 1−2.38

(−1,9442 )+ 1−2.48

(−1,9442 )+1−2.58

(−0,9506 )+ 1−2.68

(−0,9506 )+ 1−2.78

(−0,3876 )+ 1−2.88

(−0,1224 )}−8

= (0,7059+1,3021+1,2151+1,7012+1,0694+1,3071+0,6299+0,2295)-8

= 8,1602-8

= 0,1602

- CV =(1+ 0,758

+ 2,258 )

= 1+0,09375+0,03516

= 1,12891

- Membanding kan AD dan CV

AD hit = 0,1602 ˂ CV=1,12891 maka keputusan terima H0

Page 5: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

5

- Kesimpulan

Sampel berasal dari populasi yang menyebar normal.

2. Uji Non-Autokorelasi

Asumsi ini menghendaki bahwa tidak ada autokorelasi antara serangkaian pengamatan

yang diurutkan menurut waktu. Adanya kebebasan antar sisaan dapat dideteksi secara grafis

dengan melihat pola tebaran sisaan terhadap urutan waktu. Jika tebaran sisaan terhadap urutan

waktu tidak membentuk suatu pola tertentu atau bersifat acak maka dapat disimpulkan tidak

ada autokorelasi antar sisaan (Draper dan Smith, 1992). Pengujian secara empiris dilakukan

dengan menggunakan statistik uji Durbin-Watson. Hipotesis yang melandasi pengujian

adalah:

H0 : Tidak terdapat autokorelasi antar sisaan

H1 : Terdapat autokorelasi antar sisaan

Statistik uji yang digunakan adalah:

d=∑t=2

n

(e t−e t−1 )2

∑t=1

n

et2

di mana: e t = penduga sisaan ke-t, e t= y t− y t

e t−1= penduga sisaan ke-(t-1)

t = 1, 2, …, n

Kaidah keputusan dalam Uji Durbin-Watson adalah:

1. Jika du < d < 4–du, maka keputusannya adalah terima H0 yang berarti tidak terdapat

autokorelasi

2. Jika d < dl atau d > 4 – du, maka keputusannya adalah tolak H0 yang berarti terdapat

autokorelasi

3. Jika dl ≤ d ≤ du atau 4 – du ≤ d ≤ 4 – dl , maka tidak dapat diputuskan apakah H0 diterima

atau ditolak sehingga tidak dapat disimpulkan ada tidaknya autokorelasi antar sisaan

(Gujarati, 2003).

Page 6: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

6

Uji Otokorelasi

a) Uji Durbin Watson

b) Uji Lagrange Multiplier

c) Uji Breusch-Godfrey

Langkah-Langkah Uji Durbin-Watson

1. Regresikan variabel bebas (X) terhadap variabel tergantung (Y).

2. Hitung nilai prediksinya.

3. Hitung nilai residualnya.

4. Kuadratkan nilai residualnya.

5. Lag-kan satu nilai residualnya.

6. Kurangkan nilai residual dengan Lag-kan satu nilai residualnya.

7. Masuk hasil perhitungan diatas masukan kedalam rumus Durbin-Watson

Tabel Durbin-Watson

No X Y Ypred e(residu) e2 et-1 e-(et-1) (e-(et-1))2 |residu|

1 20 15 -19,287 34,287 1175,598       34,287

2 18 13 -17,103 30,103 906,1906 34,287 -4,184 17,505856 30,103

3 14 10 -12,735 22,735 516,8802 30,103 -7,368 54,287424 22,735

4 16 17 -14,919 31,919 1018,823 22,735 9,184 84,345856 31,919

5 12 9 -10,551 19,551 382,2416 31,919 -12,368 152,967424 19,551

6 10 8 -8,367 16,367 267,8787 19,551 -3,184 10,137856 16,367

7 14 10 -12,735 22,735 516,8802 16,367 6,368 40,551424 22,735

8 16 14 -14,919 28,919 836,3086 22,735 6,184 38,241856 28,919

Jumlah 120 96 -110,616 206,616 5620,801 177,697 -5,368 398,037696  

Ypred = 2,553-1,092X1

Residu = Y- Ypred

Page 7: ANALISIS REGRESI (PRESENTASI)

Tanpa kesimpulan

Tidak adaotokorelasi otokorelasi

Tanpa kesimpulan

2dU1,332

dLo,7630,070815

4-dL2,668

4-dU3,237

Statistika Matematika IIAnalisis Regresi

7

Rumus Durbin-Watson

DW=Σ(e−e (t−1))

Σ e (t)2

Dk =k,n

K =1 dan n=8

dL =0,763

dU =1,332

4-dU =3,237

4-dL =2,668

3. Multikolinearitas

Hair et al., (1998) menyatakan bahwa permasalahan multikolinearitas ditunjukkan oleh

nilai dari VIF (variance inflation factor). VIF didefinisikan sebagai

VIF j=1

1−R j2

di mana: j = 1, 2, …, p

p = banyaknya peubah penjelas

R j2

= koefisien determinasi

Page 8: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

8

R j2

diperoleh dengan meregresikan peubah prediktor Xj dengan semua peubah prediktor

lain. Nilai VIF akan semakin besar jika terdapat korelasi yang semakin besar diantara peubah

prediktor. Jika nilai VIF lebih dari 10, multikolinieritas memberikan pengaruh yang serius

pada pendugaan metode kuadrat terkecil (Bowerman and O`Connel, 1990).

Pengujian Manual VIF

1. Hitung nilai korelasi antar varibel bebas (r)

2. Kuadratkan nilai korelasi antar variabel bebas (r2).

3. Hitung nilai tolenrance (Tol) dengan rumus (1-r2).

4. Hitung nilai VIF dengan rumus 1/TOL

5. Jika VIF < 10, maka tidak terjadi multikolinier.

Tabel uji multikolineasi

No X Y XY X2 Y2

1 20 15 300 400 225

2 18 13 234 324 169

3 14 10 140 196 100

4 16 17 272 256 289

5 12 9 108 144 81

6 10 8 80 100 64

7 14 10 140 196 100

8 16 14 224 256 196

Jumlah 120 96 11520 14400 9216

r=nΣ XY−(Σ X )(ΣY )

√ (n Σ X2 )− (Σ X )2 ¿(nΣ Y 2−( Σ Y )2)¿

¿8 (1498 )−(120)(96)

√(8.1872−14400 ) (8.1224 )−9216

¿8 (1498 )−(120)(96)

√(8.1872−14400 ) (8.1224 )−9216

1.

Page 9: ANALISIS REGRESI (PRESENTASI)

Statistika Matematika IIAnalisis Regresi

9

¿ 464

√331776=464

576=0,805556

r2=(0,8056)2=0,812=0,6561

Tolerance = 1-0,6561= 0,3439

VIF= 1TOL

= 10,3439

=2,907822

Karena VIF ˂10 maka tidak terjadi multikolinier

2.

3.

4.

5.