tugas regresi linear berganda 2

23
ANALISIS REGRESI Analisis regresi merupakan studi dalam menjelaskan dan mengevaluasi hubungan antara suatu peubah bebas (independent variable) dengan satu peubah tak bebas (dependent variable) dengan tujuan untuk mengestimasi dan atau meramalkan nilai peubah tak bebas didasarkan pada nilai peubah bebas yang diketahui (Widarjono, 2005). Analisis regresi adalah teknik statistika yang berguna untuk memeriksa dan memodelkan hubungan diantara variabel-variabel. Penerapannya dapat dijumpai secara luas di banyak bidang seperti teknik, ekonomi, manajemen, ilmu-ilmu biologi, ilmu- ilmu sosial, dan ilmu-ilmu pertanian. Pada saat ini, analisis regresi berguna dalam menelaah hubungan dua variabel atau lebih, dan terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna, sehingga dalam penerapannya lebih bersifat eksploratif. Analisis regresi dikelompokkan dari mulai yang paling sederhana sampai yang paling rumit, tergantung tujuan yang berlandaskan pengetahuan atau teori sementara, bukan asal ditentukan saja. jika dalam persamaan regresi hanya terdapat satu variabel terikat,maka disebut sebagai regresi sederhana. Sedangkan jika variabel bebasnya lebih dari satu, maka disebut sebagai persamaan regresi berganda Analisis regresi merupakan analisis data untuk mengetahui seberapa besar pengaruh suatu variabel independen terhadap variabel dependen. Analisis regresi terbagi menjadi regresi linear dan nonlinear. Regresi linear dibagi menjadi dua bagian yaitu, regresi linear sederhana dan regresi linear berganda. Analisis regresi adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis sebab-akibat boleh dipastikan mengenal analisis ini. REGRESI LINEAR BERGANDA

Upload: ruslaily

Post on 08-Jul-2016

312 views

Category:

Documents


13 download

DESCRIPTION

Tugas Regresi Linear Berganda 2

TRANSCRIPT

Page 1: Tugas Regresi Linear Berganda 2

ANALISIS REGRESI

Analisis regresi merupakan studi dalam menjelaskan dan mengevaluasi hubungan antara suatu peubah bebas (independent variable) dengan satu peubah tak bebas (dependent variable) dengan tujuan untuk mengestimasi dan atau meramalkan nilai peubah tak bebas didasarkan pada nilai peubah bebas yang diketahui (Widarjono, 2005).

Analisis regresi adalah teknik statistika yang berguna untuk memeriksa dan memodelkan hubungan diantara variabel-variabel. Penerapannya dapat dijumpai secara luas di banyak bidang seperti teknik, ekonomi, manajemen, ilmu-ilmu biologi, ilmu-ilmu sosial, dan ilmu-ilmu pertanian. Pada saat ini, analisis regresi berguna dalam menelaah hubungan dua variabel atau lebih, dan terutama untuk menelusuri pola hubungan yang modelnya belum diketahui dengan sempurna, sehingga dalam penerapannya lebih bersifat eksploratif.

Analisis regresi dikelompokkan dari mulai yang paling sederhana sampai yang paling rumit, tergantung tujuan yang berlandaskan pengetahuan atau teori sementara, bukan asal ditentukan saja. jika dalam persamaan regresi hanya terdapat satu variabel terikat,maka disebut sebagai regresi sederhana. Sedangkan jika variabel bebasnya lebih dari satu, maka disebut sebagai persamaan regresi berganda

Analisis regresi merupakan analisis data untuk mengetahui seberapa besar pengaruh suatu variabel independen terhadap variabel dependen. Analisis regresi terbagi menjadi regresi linear dan nonlinear. Regresi linear dibagi menjadi dua bagian yaitu, regresi linear sederhana dan regresi linear berganda. Analisis regresi adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis sebab-akibat boleh dipastikan mengenal analisis ini.

REGRESI LINEAR BERGANDA

Regresi berganda seringkali digunakan untuk mengatasi permasalahan analisis regresi yang melibatkan hubungan dari dua atau lebih variabel bebas. Pada awalnya regresi berganda dikembangkan oleh ahli ekonometri untuk membantu meramalkan akibat dari aktivitas-aktivitas ekonomi pada berbagai segmen ekonomi. Misalnya laporan tentang peramalan masa depan perekonomian di jurnal-jurnal ekonomi (Business Week, Wal Street Journal, dll), yang didasarkan pada model-model ekonometrik dengan analisis berganda sebagai alatnya. Salah satu contoh penggunaan regresi berganda dibidang pertanian diantaranya ilmuwan pertanian menggunakan analisis regresi untuk menjajagi antara hasil pertanian (misal: produksi padi per hektar) dengan jenis pupuk yang digunakan, kuantitas pupuk yang diberikan, jumlah hari hujan, suhu, lama penyinaran matahari, dan infeksi serangga.Model regresi linier berganda merupakan pengembangan signifikan dari model regresi linier sederhana. Jika regresi sederhana hanya ada satu variabel dependen (Y) dan satu variabel independen (X), maka pada kasus regresi berganda, terdapat satu variabel dependen dan lebih dari satu variabel independen.

Page 2: Tugas Regresi Linear Berganda 2

Analisis Regresi Linear Berganda digunakan untuk mengukur pengaruh antara lebih dari satu variabel prediktor (variabel independen) hingga k-variabel prediktor terhadap variabel dependen.

Bentuk umum sebuah model regresi untuk k variabel bebas adalah :Y=β0+β1 X1+β2X2+…+ βkX k+ε

dimana ε merupakan variabel acak, parameter β0 , β1 , β2 ,…,βk adalah koefisien-koefisien regresi yang perlu diduga. Variabel-variabel X1 , X2 ,…, X k mungkin seluruhnya sebagai variabel-variabel dasar yang berbeda atau diantaranya sebagai fungsi dari variabel dasar yang lain. Jika kejadian pertama yang terjadi, kita peroleh model regresi linear berganda, karena semua variabelnya linear dan tidak ada yang merupakan fungsi dari variabel lainnya. (Tiro, 2006)

Menurut Tiro (2006), asumsi untuk regresi linear berganda yaitu;

1. Asumsi EksistensiUntuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas (dasar) X1 , X2 ,…, X k (misalnya X1= 57, X2 = 8) adalah variabel acak (univariate) dengan distribusi peluang tertentu yang mempunyai nilai rata-rata dan variansi terhingga.

2. Asumsi KebebasanNilai-nilai Y adalah hasil pengamatan yang bebas statistik antara satu dengan lainnya.

3. Asumsi kelinearanNilai rata-rata Y, untuk setiap kombinasi nilai khusus dari X1 , X2 ,…, X k dan ditulis dengan notasiμY∨X1 , X 2 ,… , X kadalah sebuah fungsi linear dari X1 , X2 ,…, X k ; yakni :

μY∨X1 , X 2 ,… , X k=β0+β1 X1+β2 X2+…+βk X k+εAtau

Y=β0+β1 X1+β2X2+…+ βkX k+ε

4. Asumsi KehomogenanVariansi Y sama untuk setiap kombinasi tertentu dari X1 , X2 ,…, X k, yakni

σ Y∨X 1 , X2 ,…, Xk2 ≡Var (Y∨X1 , X2 ,…, X k)≡σ

2

5. Asumsi KenormalanUntuk setiap nilai kombinasi tertentu X1 , X2 ,…, X k, Y mempunyai distribusi normal. Kita gunakan simbol

Y=N (μY ¿X1 , X 2 ,… , X k , σ2)

yang berarti Y berdistribusi normal dengan rata-rata μY ¿X 1, X2 ,…, X kdan variansi σ 2. Asumsi ini tidak diperlukan untuk membuat model regresi akan tetapi umumnya diperlukan untuk membuat inferensi.

Misalkan banyaknya variabel bebas berjumlah 2 (k=2), nilai data variabel tersebut, dapat dituliskan sebagai berikut:

Page 3: Tugas Regresi Linear Berganda 2

(x1 i , x2i ¿ , i=1,2 ,…,n

Untuk menghitung nilai β0, β1, β2 apabila k=2 sebagai taksiran β0, β1, β2 melalui metode OLS (Ordinary Least Square) dengan hasil sebagai berikut:b0=Y−b1 X1−b2 X2

b1=¿¿

b2=¿¿

Asumsi Uji Regresi Berganda (Multiple Regression)

Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya sejumlah asumsi yang tidak boleh dilanggar. Asumsi-asumsi Uji Regresi Berganda adalah:

1. Ukuran Sampel

Masalah berkenaan ukuran sampel di sini adalah generabilitas. Dengan sampel kecil anda tidak bisa melakukan generalisasi (tidak bisa diulang) dengan sampel lainnya. Berbeda penulis berbeda berapa sampel yang seharusnya dalam uji Regresi Berganda. Stevens (1996, p.72) merekomendasikan bahwa “untuk penelitian ilmu sosial, sekitar 15 sampel per prediktor (variabel bebas) dibutuhkan untuk mengisi persamaan uji regresi.” Tabachnick and Fidell (1996, p.132) memberi rumus guna menghitung sampel yang dibutuhkan uji Regresi, berkaitan dengan jumlah variabel bebas yang digunakan:

n > 50 + 8m

Dimana : n = Jumlah Sampel m = Jumlah Variabel Bebas

Jika peneliti menggunakan 5 variabel bebas, maka jumlah sampel yang dibutuhkan adalah 90 orang, dalam mana 50 ditambah ( 5 x 8) = 50 + 40 = 90.

2. Outlier

Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi atau terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya dilakukan sebelum melakukan Regresi Berganda. Pengecekan ini dilakukan baik terhadap variabel bebas maupun terikat. Outlier bisa dihapus dari data atau diberikan skor untuk variabel tersebut yang tinggi, tetapi tidak terlampau beda dengan kelompok skor lainnya. Prosedur tambahan guna mendeteksi

Page 4: Tugas Regresi Linear Berganda 2

outlier juga terdapat pada program SPSS file mah_1. Outlier pada variabel terikat dapat diidentifikasi dari Standardised Residual plot yang dapat disetting. Tabachnick and Fidell (1996, p. 139) menentukan outlier adalah nilai-nilai Standardised Residual di atas 3,3 (atau < - 3,3).

Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak diproduksi oleh program Regresi Berganda SPSS ini. Ia tidak terdapat dalam output SPSS. Untuk mengidentifikasi sampel mana yang merupakan Outlier, anda perlu menentukan nilai kritis Chi Square, dengan menggunakan jumlah variabel bebas yang digunakan dalam penelitian sebagai “degree of freedom-nya” atau derajat kebebasan. Pallant menggunakan Alpha 0,001 agar lebih meyakinkan, yang rinciannya sebagai berikut:

Untuk menggunakan tabel kritis Chi Square, lakukan langkah berikut:

1 Tentukan variabel bebas yang digunakan dalam analisis; 2 Temukan nilai di atas pada salah satu kolom berbayang; dan 3 Baca melintasi kolom untuk menemukan nilai kritis yang dikehendaki.

3. Normalitas Residu

Normalitas adalah residu yang seharusnya terdistribusi normal seputar skor-skor variabel terikat. Residu adalah sisa atau perbedaan hasil antara nilai data pengamatan variabel terikat terhadap nilai variabel terikat hasil prediksi. Untuk melihat apakah residu normal atau tidak, dapat dilakukan dengan cara berikut:

1 Melihat grafik Normal P-P Plot, dan 2 Uji Kolmogorov-Smirnov

Pada grafik Normal P-P Plot, residu yang normal adalah data memencar mengikuti fungsi distribusi normal yaitu menyebar seiring garis z diagonal. Residu normal dari uji Kolmogorov-Smirnov adalah diperolehnya nilai p > 0,05.

Linieritas adalah residual yang seharusnya punya hubungan dalam bentuk “straight-line” dengan skor variabel terikat yang diprediksi. Homoskedastisitas adalah varians residual seputar skor-skor variabel terikat yang diprediksi seharusnya sama bagi skor-skor yang

Page 5: Tugas Regresi Linear Berganda 2

diprediksi secara keseluruhan.

4. Multikolinieritas

Uji Regresi mengasumsikan variabel-variabel bebas tidak memiliki hubungan linier satu sama lain. Sebab, jika terjadi hubungan linier antarvariabel bebas akan membuat prediksi atas variabel terikat menjadi bias karena terjadi masalah hubungan di antara para variabel bebasnya.

Dalam Regresi Berganda dengan SPSS, masalah Multikolinieritas ini ditunjukkan lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom VIF (Variance Inflated Factors). Tolerance adalah indikator seberapa banyak variabilitas sebuah variabel bebas tidak bisa dijelaskan oleh variabel bebas lainnya. Tolerance dihitung dengan rumus 1 – R2 untuk setiap variabel bebas. Jika nilai Tolerance sangat kecil (< 0,10), maka itu menandakan korelasi berganda satu variabel bebas sangat tinggi dengan variabel bebas lainnya dan mengindikasikan Multikolinieritas. Nilai VIF merupakan invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka itu mengindikasikan terjadinya Multikolinieritas.

Hipotesis untuk Multikolinieritas ini adalah:

5. Autokorelasi

Autokorelasi juga disebut Independent Errors. Regresi Berganda mengasumsikan residu observasi seharusnya tidak berkorelasi (atau bebas). Asumsi ini bisa diuji dengan teknik statistik Durbin-Watson, yang menyelidiki korelasi berlanjut antar error (kesalahan). Durbin-Watson menguji apakah residual yang berdekatan saling berkorelasi. Statistik pengujian bervariasi antara 0 hingga 4 dengan nilai 2 mengindikasikan residu tidak berkorelasi. Nilai > 2 mengindikasikan korelasi negatif antar residu, di mana nilai < 2 mengindikasikan korelasi positif. >

Cara melakukan uji Durbin-Watson adalah, nilai Durbin-Watson hitung harus lebih besar dari batas atas Durbin-Watson tabel. Syarat untuk mencari Durbin-Watson tabel adalah Tabel Durbin-Watson. Untuk mencari nilai Durbin-Watson tabel:

1 tentukan besar n (sampel) dan k (banyaknya variabel bebas). 2 Tentukan taraf signifikansi penelitian yaitu 0,05.

Page 6: Tugas Regresi Linear Berganda 2

Durbin-Watson hitung dapat dicari dengan SPSS. Nilai Durbin-Watson hitung terdapat dalam output SPSS, khususnya pada tabel Model Summary. Hipotesis untuk Autokorelasi ini adalah:

Pengambilan keputusannya adalah:

Dengan kurva normal pengambilan Durbin-Watson:

▪ Terima H0 jika Durbin-Watson hitung lebih besar dari ..... dan Durbin-Watson hitung lebih kecil dari 4 - .....; Artinya tidak ada Autokorelasi.

▪ Tolak H0 jika Durbin-Watson hitung lebih kecil dari ..... atau 4 - ..... lebih kecil dari .....; Artinya ada Autokorelasi.

6. Homoskedastisitas

Page 7: Tugas Regresi Linear Berganda 2

Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana varians dari data adalah sama pada seluruh pengamatan. Terdapat sejumlah uji guna mendeteksi gejala heteroskedastisitas misalnya uji Goldfeld-Quandt dan Park. Namun, Wang and Jain beranggapan bahwa Uji Park dapat lebih teliti dalam memantau gejala heteroskedastisitas ini. Dengan demikian, penelitian ini akan menggunakan Uji Park guna menentukan gejala heteroskedastisitas variabel-variabelnya.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan masing-masing variabel independent. “The Park test suggests that if heteroscedasticity is present, the heteroscedastic varianc eσ_i^2 may be systematically related to one or more of the explanatory variables.” Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:

1 Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan variabel y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s) --> Klik Save --> Pada Residual klik Unstandardized --> Continue --> OK

2 Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama res_1. Ini merupakan nilai ε_i^ . Nilai ini harus dikuadratkan dengan cara (pada SPSS) klik Transform --> Compute --> Isi Target Variable dengan ε_i^2 --> Pada operasi hitung kalikan nilai ε_i^ dengan ε_i^ . Pada Variable View SPSS muncul variabel baru bernama ε_i^2.

3 Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan nilai ε_i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln) [caranya dengan Klik Ln lalu pindahkan variabel] Ln(ε_i^2 ) yaitu regresi unstandardized residual pada Target Variable dinamai Lnei2; X1 yaitu variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2 pada Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target Variable dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai Lnx4.

4 Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3, dan LnX4. 5 Lakukan uji regresi kembali secara satu per satu.

Page 8: Tugas Regresi Linear Berganda 2

6 Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel Lnei2 ke kotak Dependent --> Masukkan variabel LnX1 ke Independent(s) --> OK. Sementara hasil belum dihiraukan.

7 Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke Independent(s) > OK. Sementara hasil belum dihiraukan.

8 Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke Independent(s) > OK. Sementara hasil belum dihiraukan.

9 Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke Independent(s) > OK. Sementara hasil belum dihiraukan.

10 Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park bagi variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan LnX1, dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan LnX4.

11 Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients, yaitu nilai t. 12 Guna memastikan apakah ada gejala heteroskedastisitas, peneliti akan

memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari pada Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah sampel dan 4 karena jumlah variabel independen penelitian adalah 4. Sehingga nilai df = 48 – 4 = 44. Dalam taraf 0,05 uji yang dilakukan adalah 2 sisi sehingga singnifikansi pada tabel adalah 0,025.

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95% (0,025) pada Tabel t diperoleh nilai t tabel penelitian sebesar ......

Hipotesis yang diajukan mengenai masalah homoskedastisitas ini sebagai berikut:

Alternatif Uji Homoskedastisitas Jika Uji Park dianggap Terlampau Rumit

Jika uji Park dianggap terlampau rumit, maka pengujian alternatif dapat ditempuh guna melihat apakah terjadi Homoskedastisitas atau Heteroskedastisitas.

Caranya dengan melihat grafik persilangan SRESID dengan ZPRED pada output hasil SPSS. Caranya sebagai berikut:

1 Klik Analyze --> Regression --> Linear 2 Klik Plot.

Page 9: Tugas Regresi Linear Berganda 2

3 Isikan SRESID pada y-axis dan ZPRED pada x-axis. 4 Klik Continue. Perhatikan grafik scatterplot. Ingat, Homoskedastisitas terjadi jika varians

dari residual satu pengamatan ke pengamatan lain tetap atau sama. Heteroskedastisitas terjadi jika varians dari residual satu pengamatan ke pengamatan lain tidak sama atau tidak tetap.

Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y. Heteroskedastisitas terjadi jika terdapat titik-titik memili pola tertentu yang teratur seperti bergelombang, melebar kemudian menyempit.

Interpretasi Hasil Uji Regresi Berganda

Setelah uji Regresi Berganda selesai dilakukan, peneliti harus melakukan interpretasi. Rumus Regresi Berganda (standar) adalah sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting untuk interpretasi adalah apa yang tercantum pada tabel-tabel pada output SPSS.

Tabel Descriptives

Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini terdapat pada kolom Std. Deviation. Nilai ini nanti akan diperbandingkan dengan nilai Std. Error of the Estimate.

Tabel Model Summary

Tabel ini memberi informasi seberapa baik model analisis kita secara keseluruhan, yaitu

Page 10: Tugas Regresi Linear Berganda 2

bagaimana 4 variabel bebas mampu memprediksikan 1 variabel terikat, dengan rincian sebagai berikut ini:

Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk.

Kolom R. Menunjukkan seberapa baik variabel-variabel bebas memprediksikan hasil (multiple correlation coefficient). Kisaran nilai R adalah 0 hingga 1. Semakin nilai R mendekati angka 1, maka semakin kuat variabel-variabel bebas memprediksikan variabel terikat. Namun, ketepatan nilai R ini lebih disempurnakan oleh kolom Adjusted R Square yang merupakan koreksi atas nilai R.

Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel penelitian mampu mencari jawaban yang dibutuhkan dari populasinya. Kisaran nilai Adjusted R Square adalah 0 hingga 1. Pedoman interpretasi atas nilai Adjusted R Square adalah sebagai berikut:

Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa % varians tiap sampel pada variabel terikat bisa diprediksi oleh variabel-variabel bebas secara bersama-sama (simultan).

Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat variabel-variabel bebas bisa memprediksi variabel terikat. Nilai Std. Error of the Estimate diperbandingkan dengan nilai Std. Deviation (bisa dilihat pada tabel Descriptives). Jika Std. Error of the Estimate < Std. Deviation, maka Std. Error of the Estimate baik untuk dijadikan prediktor dalam menentukan variabel terikat. Jika Std. Error of the Estimate > Std. Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan prediktor dalam mementukan variabel terikat.

Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi dengan variabel bebas lainnya. Durbin-Watson ini digunakan dalam uji asumsi Regresi sebelumnya.

Tabel Coefficients

Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-nilai yang tertera pada kolom-kolom berikut ini:

Page 11: Tugas Regresi Linear Berganda 2

Model. Kolom ini menjelaskan berapa banyak model analisis yang dibuat peneliti. Pada kolom ini juga terdapat nama-nama variabel bebas yang digunakan dalam penelitian. Variabel-variabel tersebut diberi label “Constant” yaitu nilai konstanta yang digunakan dalam persamaan uji Regresi Berganda (a).

Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error. Kolom b menunjukkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y (variabel terikat) akan berubah jika X (variabel bebas) diubah 1 unit.

Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan sebelumnya mengenai nilai b punya masalah karena variabel-variabel kerap diukur menggunakan skala-skala pengukuran yang berbeda. Akibatnya, kita tidak bisa menggunakan nilai b guna melihat variabel-variabel bebas mana yang punya pengaruh lebih kuat atas variabel terikat. Misalnya, jika variabel yang diteliti adalah jenis kelamin yang punya skala minimal 1 dan maksimal 2 dan pengaruhnya terhadap sikap yang skalanya minimal 1 dan maksimal 6, nilai b diragukan efektivitas prediksinya. Ini akibat nilai yang diperolehnya rendah atas pengaruh perbedaan skala pengukuran. Untuk memastikan pengaruh inilah maka nilai Beta dijadikan patokan. Nilai Beta punya kisaran 0 hingga 1, di mana semakin mendekati 1 maka semakin berdampak besar signifikansinya.

Sig. Kolom ini menjelaskan tentang signifikansi hubungan antar variabel bebas dengan variabel terikat. Nilai Sig. ini sebaiknya adalah di bawah 0,05 (signifikansi penelitian).

Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu variabel yang tidak bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya 0 hingga 1, di mana semakin mendekati 1 maka semakin mengindikasikan prediktor-prediktor lain tidak bisa menjelaskan varians di variabel termaksud. Nilai yang semakin mendekati 0 artinya hampir semua varians di dalam variabel bisa dijelaskan oleh variabel prediktor lain. Nilai Torelance sebaiknya ada di antara 0,10 hingga 1.

Tabel ANOVA

Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau signifikansi pada perhitungan ANOVA. Nilai yang tertera digunakan untuk uji kelayanan Model Analisis [dimana sejumlah variabel x mempengaruhi variabel y] dengan ketentuan angka probabilitas yang baik untuk digunakan sebagai model regresi harus < 0,05. Nilai ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka Model Analisis dianggap layak. Jika Sig. > 0,05, maka Model Analisis dianggap tidak layak.

Pengambilan Keputusan dengan Tabel ANOVA

Page 12: Tugas Regresi Linear Berganda 2

Dalam Regresi Berganda, hal utama yang hendak dilihat adalah apakah serangkaian variabel bebas secara serentak mempengaruhi variabel terikat. Dalam output SPSS ini bisa ditentukan lewat tabel ANOVA.

Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F tersebut disebut sebagai F hitung. F hitung ini diperbandingkan dengan F tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat ditentukan dengan cara:

1 Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi 0,025. 2 Tentukan df1. Df1 diperoleh dari jumlah variabel bebas 3 Tentukan df2. Df2 diperoleh dari n – k – 1 = 48 – 4 – 1 = 43. 4 Cari angka 43 dan 4 dalam tabel F untuk signifikansi 0,025. 5 Dengan Excel, ketikkan rumus =FINV(0,05;4;43)

Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis juga bisa menggunakan nilai Sig. pada tabel ANOVA. Peraturannya:

Koefisien Determinasi

Dalam uji Regresi Berganda, Koefisien Determinasi digunakan untuk mengetahui persentase sumbangan pengaruh serentak variabel-variabel bebas terhadap variabel terikat. Untuk itu, digunakan angka-angka yang ada pada Tabel Model Summary.

Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti tinggal melihat nilai pada

Page 13: Tugas Regresi Linear Berganda 2

kolom R2 dikalikan 100%. Misalnya nilai R2 adalah 0,7777. Dengan demikian Koefisien Determinasinya = 0,7777 x 100% = 77,77%. Jadi, secara serentak variabel-variabel bebas mempengaruhi variabel terikat sebesar 77,77%. Sisanya, yaitu 100 – 77,77% = 22,23% ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam penelitian.

Koefisien Regresi Parsial

Koefisien Regresi Parsial menunjukkan apakah variabel-variabel bebas punya pengaruh secara parsial (terpisah atau sendiri-sendiri) terhadap variabel terikat?

Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis dilakukan dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak diuji sebagai berikut:

Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel bebas.

Nilai t tabel bisa dicari dengan cara berikut ini:

1 α = 0,05; untuk uji 2 sisi = 0,025 2 Degree of Freedom (df) = jumlah sampel – jumlah variabel bebas – 1 (angka 1 adalah

konstanta) = 48 – 4 – 1 = 43. 3 Cari persilangan antara df = 43 dan 0,025. 4 Pencarian nilai t tabel dengan Excel mudah sekali. Ketik rumus =tinv(0,05;43).

CONTOH SOAL

DATA

Page 14: Tugas Regresi Linear Berganda 2

Y (kg) X1 (cm) X2 (thn)32 57 836 59 1027 49 634 62 1128 51 829 50 739 55 1029 48 928 42 1026 42 638 61 1239 57 9

Data diatas untuk melihat bagaimana Berat badan sebagai Variabel Dependen yang dinotasikan dengan (Y) bervariasi menurut Tinggi Badan (cm) yang dinotasikan dengan X1 dan Umur (thn) yang dinotasikan dengan (X2).

Data diatas akan dilakukan analisis regresi berganda dengan bantuan sofware SPSS 17 menggunakan tingkat signifikansi 0,05 dengan hasil pengolahan data sebagai berikut:

Variables Entered/Removed

ModelVariables Entered

Variables Removed Method

1 x2, x1a . Enter

a. All requested variables entered.

Page 15: Tugas Regresi Linear Berganda 2

Model Summaryb

Model R R SquareAdjusted R

SquareStd. Error of the Estimate

1 .843a .711 .647 2.915

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Model Summaryb

Model

Change Statistics

R Square Change F Change df1 df2 Sig. F Change

Durbin-Watson

1 .711 11.087 2 9 .004 1.536

b. Dependent Variable: y

ANOVAb

ModelSum of Squares df Mean Square F Sig.

1 Regression 188.434 2 94.217 11.087 .004a

Residual 76.483 9 8.498

Total 264.917 11

a. Predictors: (Constant), x2, x1

b. Dependent Variable: y

Page 16: Tugas Regresi Linear Berganda 2

Coefficientsa

Model

Unstandardized Coefficients

Standardized Coefficients

B Std. Error Beta t Sig.

1 (Constant) 1.939 6.847 .283 .783

x1 .423 .163 .588 2.593 .029

x2 .886 .586 .343 1.511 .165

a. Dependent Variable: y

Residuals Statisticsa

Minimum Maximum Mean Std. Deviation N

Predicted Value 25.02 38.38 32.08 4.139 12

Residual -3.917 4.971 .000 2.637 12

Std. Predicted Value

-1.705 1.521 .000 1.000 12

Std. Residual -1.344 1.705 .000 .905 12

a. Dependent Variable: y

Taksiran parameter diperoleh dari hasil pengolahan SPSS yaitu;

b0 : 1.939

b1 : 0,423

b2 : 0,886

sehingga diperoleh model

Y=1.939+0,423 X1+0,886 X2

Page 17: Tugas Regresi Linear Berganda 2

Sehingga dapat dilakukan interpretasi sebagai berikut :

1. Nilai F (F Value) adalah 11.087 dengan nilai p (Prob>F) = 0,004 yang memberikan informasi tentang signifikansi model. Karena nilai p < maka model signifikan secara statistic. Karena diolah dengan menggunakan SPSS maka Nilai F tidak perlu dibandingkan dengan F tabel.

2. Daya ramal model diberikan oleh nilai R2 (R-Square) sebesar 0,711. Hal ini menunjukkan bahwa sebesar 71,1% variasi dari Y dapat dijelaskan model. Nilai Adj-R-Sqr sebesar 0,647 menjelaskan bahwa sebesar 64,7% variable independen X1 dan X2 menjelaskan variable Y.

3. Dengan melihat nilai p pada tabel Coefficients maka untuk X1 dengan nilai p = 0,029 dapat disimpulkan bahwa : Jika tinggi (X1) bertambah satu cm, maka berat (Y) dapat bertambah 0,423kg untuk anak-anak yang mempunyai umur yang sama.