korelasi dan regresi linier analisis regresi berganda
Post on 01-Feb-2016
181 Views
Preview:
DESCRIPTION
TRANSCRIPT
Materi Presentasi
Mata Kuliah Statistika
KORELASI DAN REGRESI LINIER
ANALISIS REGRESI BERGANDA
KELOMPOK 2
1. ALDHILA ARTHA WAHYUNINGTYAS
2. SUSILANINGTYAS BUDIANA KURNIAWATI
MAGISTER AKUNTANSI
UNIVERSITAS SEBELAS MARET
SURAKARTA
2015
BAB 13
KORELASI DAN REGRESI LINIER
Pengertian Analisis Korelasi
Analisis Korelasi sekelompok teknik untuk mengukur hubungan antara dua variable. Gagasan
pokok dari analisis korelasi adalah melaporkan hubungan antara dua variable. Langkah
pertama umumnya adalah menggambarkan data pada diagram pencar. Dalam diagram pencar
terdapat dua variable yaitu variable bebas dan variable terikat. Variable bebas menyediakan
dasar perkiraan. Variable bebas merupakan variable penaksir. Sedangkan variable terikat
merupakanvariabel yang ditaksir atau diperkirakan. Variable terikat dapat juga digambarkan
sebagai hasil atau akibat dari nilai variable bebas yang diketahui dan bersifat acak. Yang
berarti bahwa untuk suatu nilai variable bebas, terdapat banyak kemungkinan hasil pada
variable terikat.
Koefisien Korelasi
Ditemukan oleh Karl Pearson pada tahun 1990, koefisien korelasi menggambarkan kekuatan
hubungan antara dua variable berskala interval atau berskala rasio. Dilambangkan dengan
“r”, yang sering disebur sebagai “r pearson” dan sebagai koefisien korelasi hasil kali waktu
pearson. Koefisien korelasi dapat mengasumsikan nilai apapun dari -1,00 hingga +1,00
berturut-turut. Koefisien korelasi sebesar -1,00 atau +1,00 menunjukkan korelasi sempurna.
Jika tidak terdapat hubungan sama sekali antara kedua variable, maka r pearson sebesar nol.
Koefisien korelasi r yang mendekati nol (missal : 0,08) menunjukkan bahwa hubungan
liniernya cukup lemah. Kesimpulan yang sama jika r = -0,08. Koefisien sebesar -0,91 dan
+0,91 memiliki kekuatan yang sama ; kdeuanya menunjukkan korelasi yang sangat kuat
antara kedua variable. Dengan demikian, kekuatan korelasi tidak bergantung pada arahnya
(baik – maupun +).
Diagram pencar untuk r = 0, r yang lemah (missal -0,23) dan r yang kuat (missal +0,87).
Dapat disimpulkan bahwa jika korelasinya lemah, maka terdapat banyak sebaran disekitar
garis yang ditarik melalui pertengahan data. Sedangkan diagram yang menunjukkan
hubungan kuat, terdapat sangat sedikit sebaran disekitar garis.
Koefisien korelasi merupakan ukuran kekuatan hubungan linier antara dua variable. Ciri
koefisien korelasi adalah sebagai berikut :
Koefisien korelasi sampel dilambangkan dilambangkan dengan huruf kecil “r”.
Koefisien korelasi menunjukkan arah dan kekuatan hubungan linier kekuatan antara
dua variable yang berskala interval atau rasio.
Koefisien korelasi berkisar dari -1 hingga +1.
Nilai yang mendekati 0 menunjukkan terdapat hubungan yang lemah antar variable.
Nilai yang mendekati 1 menunjukkan hubungan searah atau positif antar variable.
Nilai yang mendekati -1 menunjukkan hubungan terbaik atau negative antar variable.
jika tidak terdapat hubungan antara kedua variable, maka titik – titik pada diagram pencar
akan terlihat di keempat kuadran. Hasil kali negative dari (X - X: ) (Y - Y: ) mengimbangi hasil
kali positif sehingga penjumlahannya mendekati nol (0). Hal ini mendorong pada koefisien
korelasi yang mendekati nol (0). Dengan demikian ∑ (X - X: ) (Y - Y: ) mengendalikan
kekuatan dan tanda dari hubungan antara kedua variable.
Koefisien korelasi juga tidak dipengaruhi oleh satuan dari kedua variable. Koefisien korelasi
bebas dari skala yang digunakan jika membagi ∑ (X - X: ) (Y - Y: ) dengan standar deviasi
sampel. Koefisien korelasi juga bebas dari ukuran sampel dan batasan menuru nilai +1,00 dan
-1,00 jika membaginya dengan (n – 1).
Oleh karena itu dapat dirumuskan sebagai berikut :
Koefisien Korelasi r = ∑( X−X� )(Y −Y� )
( n – 1 ) Sx , Sy
Jika terdapat hubungan yang kuat antara dua variable, maka diasumsikan bahwa kenaikan
atau penurunan pada suatu variable akan mengakibatkan perubahan pada variable lainnya.
Ketika populasi variable 1 menurun, maka terdapat kenaikan variable 2. Hubungan ini
disebut sebagai korelasi sembarang. Dengan demikian dapat disimpulkan bahwa ketika
mendapati dua variable dengan korelasi yang kuat, maka terdapat hubungan atau keterkaitan
antara dua variable, bukan perubahan pada salah satu variable menyebabkan perubahan
variable lain.
Menguji Signifikansi Koefisien Korelasi
Dalam pengujian ini, digunakan huruf Yunani untuk menunjukkan parameter populasi yaitu ρ
(“rho) sebagai korelasi populasi. Kemudian gunakan hipotesis nol dan hipotesis alternatifnya
adalah :
H0 : ρ= 0 (korelasi populasinya nol)
H1 : ρ ≠ 0 (korelasi populasinya berbeda dari nol)
Melalui cara H1 dinyatakan dalam rumus untuk pengujian dua sisi (“uji t”) :
Uji t untuk Koefisien korelasi t = r √n−2√1−r 2
dengan derajat kebebasan n – 2
Hal ini dapat ditafsirkan bahwa uji hipotesis dalam nilai ρ-nya, nilai ρ merupakan
kemungkinan menemukan nilai statistic uji yang lebih ekstrem daripada nilai hitungnya,
ketika H0 benar. Untuk menentukan nilai ρ, lihatlah pada distribusi t di lampiran B.2 dan
temukan baris pada derajat kebebasan.
Analisis Regresi
Analisis regresi adalah teknik yang digunakan untukmenjabarkan persamaan dan
menghasilkan perkiraan. Persamaan garis yang digunakan untuk memperkirakan Y sebagai
bsis dari X disebut sebagai persamaan regresi.
Prinsip Kuadrat Terkecil
Tujuan dari analasis regresi adalah menggunakan data untuk menempatkan garis yang paling
baik dalam menunjukkan hubungan antara kedua variable. Pendekatan awal menggunakan
diagram pencar untuk menempatkan garis secara visual.
Prinsip Kuadrat Terkecil yaitu prosedur matematis yang menggunakan data untuk
menempatkan garis dengan tujuan meminimumkan penjumlahan kuadrat dari jarak vertical
diantara nilai actual Y dan nilai taksiran Y.
Bentuk umum Persamaan regresi Linier Y = a + bX
Keterangan :
Y = Y topi atau perkiraan nilai variable Y setiap nilai X yang dipilih
a = titik potong Y atau nilai Y perkiraan X = 0 atau perkiraan nilai Y dimana garis regresi
memotong sumbu Y ketika X = 0.
b = kemiringan garis atau rata-rata perubahan dalam Y untuk setiap perubahan satu unit
(baik naik maupun turun) variable bebas X.
X = nilai variable bebas apapun yang dipilih.
Tujuan dari analisis regresi adalah menghitung nilai a dan b unutk membuat persamaan linier
yang paling sesuai dengan datanya. Rumus untuk a dan b adalah :
Kemiringan Garis Regresi b = r SySx
Keterangan :
r = koefisien korelasi
Sy = standar deviasi dari Y (variable terikat)
Sx = standar deviasi dari X (variable bebas)
Titik Potong Y a = Y: - b X:
Keterangan :
Y: = rata-rata Y (variabel terikat)
X: = rata-rata X (variable bebas)
Menguji Signifikansi Kemiringan
Metode untuk mencari persamaan tersebut didasarkan pada prinsip kuadrat terkecil. Tujuan
dari persamaan regresi adalah untuk menghitung hubungan linier antara dua variable.
Langkah berikutnya adalah menganalisis persamaan regresi dengan melakukan uji hipotesis
untuk melihat apakah kemiringan garis regresi berbeda dari nol. Alasan mengapa hal ini
penting adalah dapat menunjukkan bahwa kemiringan garis pada populasinya berbeda dari
nol maka dapat disimpulkan bahwa penggunaan persamaan regresi menambah kemampuan
untuk memperkirakan atau meramal variable terikat berdasarkan variable bebasnya.
Jika kita tidak dapat memperlihatkan bahwa kemiringannya berbeda dari nol maka dapat
disimpulkan bahwa tidaklah tepat untuk menggunakan variable bebas sebagai penaksir.
Dengan kata lain, jika tidak dapat menunjukkan kemiringan garis berbeda dari nol, akan
cenderung menggunakan rata-rata variable terikat sebagai penaksir daripada menggunakan
persamaan regresi.
Prosedur uji hipotesis, hipotesis nol dan alternatifnya :
HƠ : β = 0
H1 : β = 0
Dalam hal ini menggunakan β (huruf Yunani beta) untuk menunjukkan kemiringan
persamaan regresi populasi. Diumpamakan konsisten nilai kemiringan dengan b. Dengan
demikian, kemiringan “b” yang dihitung didasarkan pada sampel dan merupakan perkiraan
kemiringan persamaan regresi pada populasi, dan dilambangkan dengan “β”. Hipotesisnya
nol adalah bahwa kemiringan persamaan regresi pada populasi sama dengan nol. Jika ini
merupakan kasusnya, maka garis regresinya horizontal dan tidak terdapat hubungan antara
variable bebas, X, dengan variable terikat, Y. Dengan kata lain, nilai dari variable terikat
adalah sama untuk setiap nilai variable bebas dan tidak memberikan bantuan untuk
memperkirakan nilai dari variable terikat.
Jika hipotesis nol ditolak dan hipotesis alternative diterima, maka kemiringan garis regresi
populasi tidak sama dengan nol. Yakni mengetahui nilai variable bebas memungkinkan untuk
membuat perkiraan variable terikat yang lebih baik. Dengan kata lain, terdapat hubungan
signifikan antara kedua variable.
Untuk menguji hipotesis nol, dapat menggunakan distribusi t dengan (n-2) dengan rumus
berikut :
Uji Kemiringan t = b−0
Sb dengan derajat kebebasan n-2
Keterangan :
b = perkiraan kemiringan garis regresi yang dihitung melalui informasi sampel
Sb = kesalahan standar dari perkiraan kemiringan, yang juga ditentukan melalui informasi
sampel.
Langkah awal adalah menetapkan hipotesis nol dan alternatifnya yaitu :
HƠ : β ≤ 0
H1 : β > 0
Dalam hal ini menggunakan uji satu sisi. Jika tidak menolak hipotesis nol maka dapat
disimpulkan bahwa kemiringan garis regresi populasi sama dengan nol. Hal ini berarti bahwa
variable bebas tidak ada gunanya dalam memperkirakan variable terkait. Dan jika menolak
hipotesis nol dan menerima alternatifnya maka dapat disimpulkan bahwa kemiringan
garisnya lebih besar dari nol. Dengan demikian, variable bebasnya dapat membantu
memperkirakan variable terikat.
Menilai Kemampuan Prediksi oleh persamaan Regresi
Kesalahan Standar Estimasi adalah ukuran dispersi,atau sebaran dari nilai yang diamati di
sekitar garis regresi untuk setiap nilai x.
kesalahan standar estimasi Syx=√∑ ¿¿¿¿
Koefisien Determinasi
Penggunaan kesalahan standar estimasi memberikan ukuran relatif bagi kemampuan
persamaan regresi untuk memprediksi.Kita akan menggunakannya untuk memberikan
informasi yang lebih mendetail mengenai prediksi pada bagian berikutnya.Pada bagian
ini,statistik lain akan dijelaskan dimana akan memberikan ukuran yang lebih dapat ditafsirkan
mengenai kemampuan persamaan regresi untuk memprediksi.Statistik itu disebut koefisien
determinasi atau R kuadrat.
KOEFISIEN DETERMINASI.Proporsi dari variasi total pada variabel terikat Y yang
dijelaskan atau diperhitungkan oleh variasi pada variabel bebas X.
Koefisien determinasi mudah dihitung.Koefisien detrminasi merupakan koefisien korelasi
kuadrat.Maka dari itu,istilah R kuadrat juga dipergunakan.Pada Copier Sales of
Amerika,koefisien korelasi bagi hubungan antara jumlah mesin fotocopi yang terjual dengan
jumlah panggilan penjualan adalah 0,759.Jika menghitung (0,759)2 ,koefisien determinasinya
sebesar 0,576.
Seberapa baik persamaan regresi dapat memprediksi jumlah mesin fotocopi yang terjual
melalui sejumlah panggilan penjualan yang dilakukan ? jika memungkinkan untuk membuat
prediksi yang sempurna,koefisien determinasi akan sebesar 100 persen.Hal itu berarti bahwa
variabel bebas ,jumlah panggilan penjualan menjelaskan atau memperhitungkan seluruh
variasi jumlah mesin fotocopi yang terjual.Koefisien determinasi 100 persen terkait dengan
koefisien korelasi +1,0 atau -1,0.
Hubungan antara koefisien korelasi ,koefisien determinasi dan Kesalahan standar
estimasi
Ketika kesalahan standarnya kecil,hal tersebut menunjukkan bahwa kedua variabel terkait
secara dekat.Pada perhitungan kesalahan standar,komponen kuncinya adalah :
∑ ¿¿2
Jika nilai komponen tersebut kecil maka kesalahan standarnya juga kecil.
Koefisien korelasi mengukur kekuatan hubungan linier di antara dua variabel.Ketika titik-
titik pada diagram pencar terlihat mendekati garis,kita perhatikan bahwa koefisien
korelasinya cenderung besar.Maka dari itu,koefisien korelasi dan kesalahan standar estimasi
berbanding terbalik.Semakin kuat hubungan linier antara dua variabel,koefisien korelasinya
meningkat dan kesalahan standar estimasinya turun.
Koefisien korelasi merupakam koefisien determinasi.Koefisien determinasi mengukur
presentasi variasi Y yang dijelaskan oleh variasi X.
Sarana umum guna menunjukkan hubungan di antara ketiga ukuran tersebut adalah tabel
ANOVA.Total variasi terbagi menjadi dua komponen : variasi akibat perlakuan dan variasi
akibat kesalahan acak.
Variasi total terbagi ke dalam komponen :
1. Variasi yang dijelaskan oleh regresi (dijelaskan oleh variabel bebas)
2. Kesalahan atau residu.
Hal ini merupakan variasi yang tidak dapat dijelaskan.Ketiga kategori tersebut terlihat pada
kolom pertaa pada spreadsheet tabel ANOVA.Kolom berjudul “df” mengacu pada derajat
kebebasan yang terkait dengan masing-masing kategori.Jumlah total derajat kebebasan adalah
n-1.Jumlah derajat kebebasan yang terkait dengan komponen kesalahan adalah n-
2.Komponen “SS” yang terletak di tengah-tengah tabel ANOVA mengacu pada penjumlahan
kuadrat.
Total derajat kebebasan sama dengan penjumlahan derajat kebebasan regresi dan residu
(kesalahan ),serta total penjumlahan kuadrat yang sama dengan penjumlahan dari jumlah
kuadrat regresi dan residu(kesalahan).
Penjumlahan kuadrat ANOVA dihitung sebagai berikut :
Jumlah kuadrat regresi = SSR = ∑ (Y ¿−Y )¿2 = 1065,789
Jumlah kuadrat residu atau kesalahan = SSE= ∑ (Y ¿−Y )¿2 = 784,211
Total jumlah kuadrat = total SS = = ∑ (Y ¿−Y )¿2 = 1850,00
Koefisien determinasi didefinisikan seagai presentase total variasi (total SS) yang dijelaskan
oleh persamaan regresi (SSR).Melalui tabel ANOVA nilai R-kuadrat yang dilaporkan dapat
disahkan.
Koefisien Determinasi r2= SSR
total SS=1− SSE
total SS
Pengamatan lain yang menghubungkan koefisien korelasi ,koefisien determinasi,dan
kesalahan standar estimasi menunjukkan hubungan antara kesalahan standar estimasi dan
SSE.Dengan memasukkan [SSE jumlah kuadrat residu atau kesalahan = SSE = ∑ (Y−Y ¿)¿2] ke dalam rumus kesalahan standar estimasi dapat diperoleh :
Kesalahan standar estimasi Sy . x=√ SSEn−2
Dalam hal penjumlahan ,analisis regresi memberikan dua statistik untuk menilai kemampuan
persamaan regresi untuk memprediksi ,kesalaham standar estimasi dan koefisien
determinasi.Ketika melaporkan hasil-hasil analisis regresi,temuannya harus dijelaskan
dengan gamblang,terutama ketika menggunakan hasil-hasilnya untuk membuat prediksi
variabel terkait.
Prediksi dari Estimasi Interval
Asumsi yang mendasari regresi linier
Sebelum kita menyajikan interval kepercayaannya, asumsi untuk mempergunakan regresi
linier dengan tepat seharusnya ditinjau kembali. Diagram 13—3 mengilustrasikan asumsi
tersebut.
1. Untuk setiap nilai X, terdapat nilai Y yang sesuai. Nilai Y tersebut mengikuti distribusi
normal.
2. Rata-rata dari distribusi normal tersebut berada pada garis regresi.
3. Standar deviasi dari distribusi normal tersebut semuanya sama. Estimasi terbaik yang
kita punya mengenai standar deviasinya adalah kesalahan standar estimasi ( Syx)
4. Nilai Y saling bebas secara statistik .ini berarti bahwa dalam memilih sampel,suatu nilai
X tidak begantung pada nilai X lainnya.Asumsi ini sangatlah penting ketika data
terkumpul sepanjang periode waktu.
Membentuk Interval Kepercayaan dan prediksi
Estimasi interval pertama disebut Interval kepercayaan.interval ini dipergunakan ketika
persamaan regresi digunakan untuk memprediksi rata-rata nilai Y pada setiap nilai X
Interval kepercayaan rata-rata Y ,untuk setiap X Y ±(Sy . x)√ 1n+¿¿¿
Estimasi interval kedua disebut interval prediksi.Interval ini dipergunakan ketika persamaan
regresi digunakan untuk memprediksi setiap Y ( n = 1 ) pada setiap nilai X.
Interval prediksi Y,untuk setiap X Y ± t S y . x√1+ 1n+¿¿¿
Mengubah Data
Koefisien korelasi menggambarkan kekuatan hubungan linier antara dua variabel.Bisa jadi
kedua variabel berhubungan erat,namun berhubungan tidak linier.Berhati-hatilah ketika anda
sedang menafsirkan koefisien korelasi.Nilai r barangkali menunjukkan tidak adanya
hubungan linier,namun bisa jadi terdapat hubungan yang berbentuk tidak linier lainnya atau
berbentuk kuva.
Phil Mickelson memainkan 22 pertandingan ,memperoleh $ 5.784.823 dan memiliki rata-rata
skor setiap ronde 69,16.Fred Couples memainkan 16 pertandingan,memperoleh $
1.396.109,dan memiliki rata-rata skor setiap ronde70,92.Data untuk ke 22 pmain golf
sebagai berikut.
Korelasi antara variabel Kemenangan dan Skornya adalah – 0,782.Korelasinya dengan cukup
kuat berbanding terbalik.Akan tetapi ketika kita menggambarkan data pad diagram
pencar ,hubungannya tidak terlihat linier;tidak terlihat menyerupai suatu garis.
BAB 14
ANALISIS REGRESI BERGANDA
Analisis Regresi Berganda
Menggambarkan hubungan antara beberapa variabel bebas dengan variabel terikat melalui analisis regresi berganda.
Perasamaan umum regresi berganda: Y=α+b1 X1+b2 X2+b3 X3+....+bk X k
Keterangan:
a = titik potong, yaitu nilai Y ketika seluruh X sama dengan nol
bj = jumlah perubahan Y ketika X1 bertambah satu unit dengan nilai seluruh variabel bebas lainnya tetap konstan. Indeks huruf j merupakan simbol yang membantu mengenali tiap-tiap variabel bebas; yang tidak dgunakan pada bagian manapun dalam perhitungan. Biasanya indeks tersebut merupakan nilai bilangan di antara 1 dan k yang merupakan jumlah variabel bebasnya. Akan tetapi, indeks tersebut juga dapat berupa kata yang pendek atau singkatan, misalnya “usia”.
Mengevaluasi Persamaa Regresi Berganda
Banyak statistik dan metode statistik yang digunakan untuk menilai hubungan antara variabel terikat dengan lebih dari satu variabel bebas. Langkah awal yang dilakukan adalah menuliskan hubungan antar variabel tersebut dalam bentuk persamaan regresi berganda.
Tabel ANOVA
Analisis statistik persamaan regresi berganda dirangkum dalam tabel ANOVA, Tabel ANNOVA melaporkan total jumlah variasi variabel terikat Y dan menjadi dua komponen:
1. Regresi, atau variasi Y yang dijelaskan seluruh variabel bebas dan,2. Kesalahan atau residu, atau variasi X yang tidak dijealaskan oleh Y.
Kedua kategori tersebut diketahui pada kolom pertama tabel ANOVA dibawah ini. Kolom berjudul “df” mengacu pada derajat kebebasan yang terkait dengan setiap kategori. Total jumlah kebebasan adalah n-1. Jumlah derajat kebebasan regresi sama dengan jumlah variabel bebas didalam persamaan regresi berganda (k). Jumlah derajat kebebasan terkait dengan komponen kesalahan yang sama dengan total dereajat kebebasan dikurangi derajat kebebasan regresi (n-(k-1)).
Sumber df SS MS FRegresi k
n-1 ( k + 1 )n - 1
SSRSSESS total
MSR = SSR/k MSR/MSEResidu atau kesalahan
MSE = SSE/[n−(k+1) ]
Total
Istilah “SS” terletak ditengah-tengah tabel ANOVA mengacu pada jumlah kuadratnya. Perhatikan bahwa ada penjumlahan kuadrat untuk setiap sumber variasinya. Kolom jumlah kuadart menunjukkan jumlah variasi yang melekat pada masing-masing sumbernya. Total variasi variabel Y diringkas dalam SS total. SS total hanyalah pembilang dari persamaan yang biasa digunakan untuk menghitung segala jenis variasi-dengan kata lain, jumlah variasi kuadrat deviasi rata-ratanya. Cara menghitung diperoleh dari persamaan:
Total Jumlah Kuadrat=SS total=∑ (Y −Y ¿)2¿
Total jumlah kuadrat merupakan penjumlahan dari jumlah kuadrat residu dan regresi. Jumlah kuadrat regresi merupakan penjumlahan kuadrat dari selisih antara nilai perkiraan atau taksirannya Y , dengan keseluruhan rata-rata Y. Jumlah kuadrat tersebut diperoleh dari persamaan:
Jumlahkuadrat Regresi=SSR=∑ (Y−Y ¿)2 ¿
Jumlah kuadrat regresi merupakan penjumlahan kuadrat dari selisish antara nilai variabel terikat yang diamati Y, dengan nilai perkiraan atau taksirannya yang sesuai, Y . Selisihnya merupakan nilai kesalahan perkiraan atau peramalan variabel terikat dalam persamaan regresi berganda. Nilainya dihitung dengan persamaan:
JumlahKuadrat Kesalahan atau Residu=SSE=∑ (Y −Y ¿)2¿
Kesalahan Standar Estimasi Berganda
Kesalahan estimasi dapat disejajarkan dengan standar deviasi. Menghitung kesalahan standar estimasi berganda dengan persamaan sebgai berikut:
SY 123. .k=√∑ (Y −Y )2
n−(k+1)=√ SSR
n−¿¿¿
Keterangan: Y = pengamatan aktual.
Y = nilai perkiraan yang dihitung melalui persamaan regresi.
n = jumlah pengamatan dalam sampel.
k = jumlah variabel bebas.
SSR = Jumlah Kuadrat Residu dari tabel ANOVA.
Ukuran sebaran yang serupa, misal kesalahan standar deviasi pada bab-13, kesalahan standar berganda yang lebih kecil menunjukkan persamaan taksiran yang lebih baik atau lebih efektif.
Koefisiensi Determinasi Berganda
Koefisien determinasi berganda diartikan sebagai persen variasi variabel terikat yang dijelaskan atau diperhitungkan oleh variabel bebas. Dalam kasus regresi berganda, pengertiannya diperlukan sebagai berikut:
Koefisiensi Determinasi Berganda, persen variasi variabel terikat, Y, yang dijelaskan oleh sekelompok variabel bebas X1, X2, X3...., Xk.
Ciri-ciri koefisien determinasi berganda antara lain:
1. Dilambangkan dengan huruf kapital R kuadarat. Dengan kata lain, ditulis denngan R2 karena berperilaku seperti koefisien korelasi kuadrat.
2. Berkisar dari 0 hingga 1. Nilai yang mendekati 0 menunjukkan hubungan lemah antara sekelompok variabel bebas dengan terikatnya. Nilai mendekati 1 menunjukkan hubungan yang kuat.
3. Tidak dapat bernilai negatif. Sembarang angka yang dikuadratkan atau dipangkatkan dua tidak bisa bernilai negatif.
4. Mudah untuk dtafsirkan. Karena R2 merupakan nilai di antara 0 dan 1, maka mudah untuk ditafsirkan, dibandingkan, dan dipahami.
Koefisien determinasi dapat dihitung melalui informasi yang diperoleh pada tabel ANOVA. Amati kolom jumlah kuadratnya yang diberi nama SS pada keluaran Excel, dan gunakan kuadrat regresi, SSR, lalu bagi dengan total jumlah kuadrat, SS total.
Koefisiensi Determinasi Berganda: R2= SSR
SS total
Koefisien Deerminasi yang Disesuaikan
Jumlah variabel bebas pada persamaan regresi berganda membuat koefisiensi determinasi membesar. Setiap variabel bebas baru menyebabkan taksirannya lebih akurat. Yakni, pada gilirannya membuat SSE mengecil dan SSR membesar. Oleh karena itu, nilai R2 yang meningkat hanya karena total jumlah variabel bebas dan bukan karena tambahan variabel bebas merupakan penaksir yang baik atas variabel terikat. Faktanya, jika jumlah variabel (k) dan ukuran sampel (n) bernilai sama.
Koefisien Determinasi yang disesuaikan Radj2 =
SSEn−(k+1)SS total
n−1
Kesimpulan Regresi Linier Berganda
Analisis regresi berganda hanya diamati sebagai cara untuk menggambarkan hubungan antara variable terikat dengan beberapa variable bebas. Akan tetapi, metode kuadrat terkecil juga memiliki kemampuan untuk menarik kesimpulan atau rumusan mengenai hubungan bagi keseluruhan populasi.
Dalam pembentukan regresi berganda, diasumsikan bahwa terdapat persamaan regresi populasi yang tidak diketahui yang menghubungkan variable terikat dengan variable bebas sebanyak k. Hal ini terkadang disebut sebagai model hubungan. Persamaan tersebut dapat dinyatakan dalam persamaan :
Y = α +β1 X1+ β2 X2 +….+ βk Xk
Uji Global: Menguji Model Regresi Ganda
Kita dapat menguji kemampuan variable X1,X2,….X k untuk menjelaskan variable terikat Y. Dalam bentuk pertanyaan: dapatkah variable terikut diperkiraantanpa memperhatikan varabel bebasnya? Uji yang digunakan disebut sebagai uji global. Secara mendasar , uji tersebut mencari tahu apakah memungkinkan seluruh variable bebas memeiliki regresi nol. Hipotesis nolnya adalah:H0:β1=β2=β3=0
Hipotesis alternatifnya adalah:H 1: Tidak semua β bernilai 0
Berikut ini F hitung untuk menguji hipotesis global. Rumusnya sebagai berikut:
F= SSR /kSSE /⌈ n−(k+1)⌉
Melalui ANOVA , F hitungnya sebesar: F= SSR /kSSE /⌈ n−(k+1)⌉
= MSRMSE
Perlu diingat F-hitung menguji hipotesis nol dasar bahwa kedua variansinya atau pada kasus ini kedua kuadratnya rta-rata sama. Pada uji hipotesis regresi berganda global kali ini, kita akan menolak hipotesis nolnya (H0) yaitu seluruh koefisien regresinya nol ketika kuadrat rata-rata residunya.
Sejalan dengan menguji hipotesis lainya kaidah keputsan dapat didasrakan pada salah satu dari dua metode:
1. Membandingkan statistic ujinya dengan nilai kritisnya 2. Menghitung nilai ρ yang didasarkan pada statistic ujinya dan membandingkan nilai ρ
dengan tingkat signifikansinya.
Melalui metode nilai kristis , mula-mula kita mencari nilai kritis F yang memerlukan tiga informasi:
1. Derajat kebebasan pembilang2. Derajat kebebasan penyebut3. Tingkat signifikansi
Menilai Koefisien Regresi Individual
Persamaan yakni :
Uji koefisien regresi ndividu : t=b j−0
Sbj
Mengevaluasi Asumsi-asumsi pada regresi berganda
Hasil uji tersebut memungkinkan kita mengetahui apakah sedikitnya terdapat satu koefisien yang tidak sama dengan nol dan kita menguraikan suatu prosedur untuk mengevaluasi masing-masing koefisien regresi.
Asumsi-asumsi untuk regresi bergandanya adalah sama:
1. Terdapat hubungan linier, yakni terdapat hubungan searah antara variable terikat dengan variable-variabel bebasnya. Kita dapat mengevaluasi asumsi ini melalui diagram pencar dan plot residu.Menggunakan diagram pencar
Grafik tersebut membantu memvisualisasikan hubunganya dan memberikan beberapa informasi awal mengenai arahnya (positif atau negative), linearitas, dan kekuatan hubungan.Menggunakan plot residuPlot residu dapat membantu untuk menilai linearitas persamaan regresi berganda.
2. Variasi residunya sama untuk nilai Y yang besar dan kecil. Persyaratan ini menunjukan bahwa variasi mengenai nilai produksinya konstan, tanpa memerhatiakn apakah nilai taksirannya besar atau kecil.Prasyarat berupa variasi konstan disekitar garis regresiya disebut homokedastisitas. Homokedastisitas adalah variasi disekitar persamaan regresinya sama untuk seluruh nilai variable bebas. Untuk memeriksanya residu digambarkan berlawanan dengan nilai Y yang sesuai.
3. Residunya mengikuti distribusi probabilitas normal.Distribusi ResiduUntuk mengevaluasi asumsi ini kita dapat menyusun residu tersebut kedalam distribusi frekuensi.minitab dan excel memberikan grafik lain yang membantu mengevaluasi asumsi residu yang berdistribusi normal. Hal ini disebut plot probabilitas normal Dan tertea disebelah kanan histogram.
4. Variable bebasnya seharusnya tidak berkorelasi.MultikolinearitasTerjadi ketika variable bebasnya berkorelasi.Variable bebas yang berkorelasi menjadikan sulit untuk mengambil kesimpulan mengenai masing-masing koefisien regresi beserta pengaruhnya terhadap variable terikat.Pertama , kita perlu menekankna bahwa multikolinearitas tidak mempengaruhi kemampuan persamaan regresi berganda untuk memperkirakan variable terikat. Alas an kedua untuk menghindari variable bebas yang berkorelasi adalah bias jadi variable-variabel tersebut akan mengarahkan pada hasil uji hipotesis yang meragukan untuk masing-masing variable bebas.Beberapa peyunjuk yang menunjukan permasalahan multikolinearitas:a. Variable bebas yang diketahui sebagai taksiran penting memiliki koefisien regresi
yang tidak signifikan.b. Koefisien regresi yang seharusnya memiliki tanda positif berubah menjadi
negative, atau sebaliknya.c. Ketika variabel bebas ditambah atau dihapuskan terdapat perubahan drastic pada
nilai koefisien regresi yang tersisa.
Uji yang lebih tepat adalah menggunakan factor inflasi variansi dengan rumus:
VIF= 1
1−RJ2
5. Residunya saling bebas.Pengamatan yang saling bebasAsumsi kelima mengenai analisis korelasi dan regresi adalah bahwa masing-masing residu harus saling bebas.Ketika residunya saling berkorelasi, kita meyebut kondisi tersebut sebagai autokorelasi.Autokorelasi sering terjadi ketika suatu data dikumpulkan sepanjang periode waktu tertentu.
Variabel Bebas Kualitatif
Variabel tersebut dinamakan variabel kualitatif karena menggambarkan suatu sifat, misalnya pria atau wanita. Dalam analisis regresi kita menggunakan skema variabel dummy untuk salah satu dari dua kemungkinan kondisi yang diberi kode 0 dan 1 untuk yang lainya.
Model Regresi dengan Interaksi
Dalam analisi regresi, interaksi dapat diselidiki sebagai variabel bebas yang terpisah.Variabel taksiran interaksi dapat dijabarkan dengan mengalikan nilai data pada suatu variabel bebas dengan nilai variabel bebas lainnya, sehingga diperoleh variabel bebas baru.Model dua variabel yang memasukan komponen interaksi yakni: Y=α+β1 X1+β2 X2+β3 X1 X2
Komponen X1 X2 merupakan komponen interaksi.Membentuk variabel dengan mengalihkan nilai X1 dan X2 untuk membuat variabel bebas ketiga.
Terdapat situasi lain yang dapat terjadi ketika mempelajari interaksi diantarnya variabel bebasnya.
1. Dimungkinkan untuk memiliki interaksi tiga arah diantara variabel bebasnya. 2. Dimungkinkan untuk memiliki interaksi dengan salah satu dari variabel bebasnya
berskala nominal.
Regresi Berjenjang
Menguraikan teknik yang disebut dengan regresi berjenjang, yang lebih efisien dalam mambangun persamaan regresi.Regresi berjenjang, yaitu metode tahap untuk menentukan persamaan regresi yang dimulai dengan satu variabel bebas dan menambahkan atau menghapus variabel bebasnya satu demi satu.Hanya variabel bebas dengan koefisien regresi bukan 0 saja dimasukan dalam persamaan regresi. Kelebihan metode berjenjang:
1. Hanya variabel bebas dengan koefisien regresi signifikan saja yang dimasukan kedalam persamaan.
2. Langkah-langkah yang dilibatkan dalam membangung persamaan regresi sudah jelas.3. Metodenya efisien dalam mencari persamaan regresi hanya dengan koefisien regresi
yang signifikan saja.4. Perubahan dalam kesalahan standar estimasi berganda beserta koefisien
determinasinya diperlhatkan.
Metode berjenjang disebut juga metode pemilihan laju karena dimulai tana variabel bebas dan menambhakan satu variabel bebas ke persamaan regresi pada setiap iterasi.Terdapat pula metode penyisihan mundur yang dimuali dengan keseluruhan variabel dan mengeluarkan satu variabel bebas pada setiap iterasi.
Pendeatan lainya adalah regresi subset terbaik, adalah model yangt paling baik diamati menggunakan satu variabel bebas, model yang paling baik yang menggunakan dua variabel bebas, model yang paling baik dengan tiga varaibel bebas dan seterusnya.
top related